Tối ưu hóa công cụ tìm kiếm (dịch vụ SEO) là quá trình cải thiện chất lượng và số lượng lưu lượng truy cập vào một trang web hoặc một trang web từ các công cụ tìm kiếm. [1] SEO nhắm phương châm lưu lượng truy cập không phải trả tiền (được gọi là kết quả "tự nhiên" hoặc "không phải trả tiền") hơn là lưu lượng truy cập trực tiếp hoặc lưu lượng truy cập có trả tiền. Lưu lượng truy cập không phải trả tiền có thể bắt nguồn từ các loại tìm kiếm không giống nhau, bao gồm tìm kiếm hình ảnh, tìm kiếm video, tìm kiếm học thuật, [2] tìm kiếm tin tức và các công cụ tìm kiếm dọc theo ngành cụ thể.

Là một chiến lược tiếp thị trên Internet, SEO xem xét cách thức hoạt động của các công cụ tìm kiếm, các thuật toán được lập trình máy tính điều khiển hành vi của công cụ tìm kiếm, những gì mọi người tìm kiếm, các cụm từ hoặc từ khóa tìm kiếm thực tế được nhập vào các công cụ tìm kiếm và công cụ tìm kiếm nào được đối tượng kim chỉ nam của họ ưa thích . SEO được thực hiện vì một trang web sẽ nhận được nhiều khách truy cập hơn từ công cụ tìm kiếm khi các trang web xếp hạng cao hơn trong trang kết quả của công cụ tìm kiếm (SERP). Những khách truy cập này tiếp nối có thể được chuyển đổi thành khách hàng
Lịch sử

Các nhà quản trị web và nhà cung cấp nội dung bắt đầu tối ưu hóa trang web cho các công cụ tìm kiếm vào giữa những năm 1990, khi các công cụ tìm kiếm đầu tiên lập danh mục cho trang Web ban đầu. Ban đầu, tất cả các quản trị viên web chỉ việc gửi Showroom của một trang hoặc URL đến các công cụ không giống nhau sẽ gửi một trình thu thập thông tin web để thu thập thông tin trang đó, trích xuất các link đến các trang khác từ nó và trả lại thông tin tìm thấy trên trang được lập chỉ mục .[4] Quá trình này bao gồm một trình craw dữ liệu công cụ tìm kiếm tải xuống một trang và lưu trữ nó trên máy chủ của chính công cụ tìm kiếm. Chương trình thứ hai, được gọi là trình lập chỉ mục, trích xuất thông tin về trang, chẳng hạn như các từ mà trang chứa, vị trí của chúng và bất kỳ trọng số nào cho các từ cụ thể, cũng như tất cả các backlinks mà trang chứa. Tất cả thông tin này sau đó được đưa vào một bộ lập lịch để thu thập thông tin vào một ngày Tiếp đến.

Chủ sở hữu trang web nhận ra giá trị của thứ hạng cao và khả năng hiển thị trong kết quả của công cụ tìm kiếm, [5] tạo cơ hội cho cả những người thực hành SEO mũ trắng và mũ đen. Theo nhà phân tích ngành Danny Sullivan, cụm từ "tối ưu hóa công cụ tìm kiếm" có thể được sử dụng vào năm 1997. Sullivan ghi nhận Bruce Clay là một trong những người đầu tiên phổ biến thuật ngữ này. [6] Vào ngày 2 tháng 5 năm 2007, [7] Jason Gambert đã cố gắng đăng ký nhãn hiệu cho thuật ngữ SEO bằng cách thuyết phục Văn phòng nhãn hiệu ở Arizona [8] rằng SEO là một "quy trình" tương tác đến thao tác từ khóa chứ không phải "dịch vụ tiếp thị sản phẩm".

Các phiên bản đầu tiên của thuật toán tìm kiếm dựa trên thông tin do quản trị viên web cung cấp, chẳng hạn như thẻ meta từ khóa hoặc các tệp chỉ mục trong các công cụ như ALIWEB. Thẻ meta cung cấp hướng dẫn cho nội dung của mỗi trang. Tuy nhiên, việc sử dụng siêu dữ liệu để lập chỉ mục các trang được cho là ít đáng tin tưởng hơn vì sự lựa chọn từ khóa của quản trị viên web trong thẻ meta có thể là sự trình diễn không chính xác về nội dung thực tiễn của trang web. Dữ liệu không chính xác, không đầy đủ và không nhất quán trong các thẻ meta có thể và đã khiến các trang xếp hạng cho các tìm kiếm không ảnh hưởng. [9] [đáng ngờ - thảo luận] Các nhà cung cấp nội dung web cũng thao túng một số thuộc tính trong nguồn HTML của một trang nhằm cố gắng xếp hạng tốt trong công cụ tìm kiếm. [10] Đến năm 1997, các nhà thiết kế công cụ tìm kiếm nhận ra rằng các quản trị viên web đã nỗ lực để xếp hạng tốt trong công cụ tìm kiếm của họ và một số quản trị viên web thậm chí đang thao túng thứ hạng của họ trong kết quả tìm kiếm bằng cách nhồi các trang có quá nhiều từ khóa hoặc không tương tác. Các công cụ tìm kiếm ban đầu, chẳng hạn như Altavista và Infoseek, đã điều chỉnh thuật toán của họ để ngăn quản trị viên web thao túng thứ hạng. [11]
Bằng cách dựa nhiều vào các yếu tố như mật độ từ khóa, vốn chỉ nằm trong tầm kiểm soát của quản trị viên web, các công cụ tìm kiếm ban đầu đã bị lạm dụng và thao túng xếp hạng. Để cung cấp kết quả tốt hơn cho người dùng của họ, các công cụ tìm kiếm phải điều chỉnh để đảm bảo các trang kết quả của họ hiển thị các kết quả tìm kiếm phù hợp nhất, thay vì các trang không liên quan bị quản trị web vô lương tâm nhồi nhiều từ khóa. Điều này có nghĩa là chuyển từ sự phụ thuộc nhiều vào mật độ thuật ngữ sang một quy trình vừa đủ hơn để ghi các tín hiệu ngữ nghĩa. [12] Vì sự thành công và phổ biến của một công cụ tìm kiếm được xác định bởi khả năng tạo ra các kết quả phù hợp nhất cho bất kỳ tìm kiếm nhất định nào, nên các kết quả tìm kiếm có chất lượng kém hoặc không tương tác có thể khiến người dùng tìm các nguồn tìm kiếm khác. Các công cụ tìm kiếm phản ứng bằng cách phát triển các thuật toán xếp hạng phức tạp hơn, có tính đến các yếu tố bổ sung mà quản trị viên web khó thao tác hơn. Năm 2005, một hội nghị thường niên, AIRWeb (Truy xuất thông tin đối thủ trên Web), được Ra đời để tụ tập các nhà thực hành và nhà nghiên cứu liên quan đến tối ưu hóa công cụ tìm kiếm và các chủ đề liên quan. [13]

Các công ty sử dụng các kỹ thuật quá mạnh có thể khiến các trang web khách hàng của họ bị cấm khỏi kết quả tìm kiếm. Năm 2005, Wall Street Journal đưa tin về một công ty, Traffic Power, bị kết tội sử dụng các kỹ thuật rủi ro cao và không tiết lộ những rủi ro đó cho khách hàng của mình. [14] Tạp chí Wired đã báo cáo rằng cùng một công ty đã kiện blogger và SEO Aaron Wall vì đã viết về lệnh cấm. [15] Matt Cutts của Google Kế tiếp xác thực rằng trên thực tế, Google đã cấm Traffic Power và một số khách hàng của mình. [16]

Một số công cụ tìm kiếm cũng đã tiếp cận với ngành công nghiệp SEO và thường xuyên là nhà tài trợ và khách mời tại các hội nghị, webchats và hội thảo về SEO. Các công cụ tìm kiếm chính cung cấp thông tin và hướng dẫn để giúp tối ưu hóa trang web. [17] [18] Google có chương trình Sơ đồ trang web để giúp quản trị viên web tìm hiểu xem Google có gặp vấn đề gì khi lập chỉ mục trang web của họ hay không và cũng cung cấp dữ liệu về lưu lượng truy cập của Google vào trang web. [19] Bing Webmaster Tools cung cấp một cách để quản trị viên web gửi sơ đồ trang web và nguồn cấp dữ liệu web, cho phép người dùng xác định "tốc độ thu thập dữ liệu" và theo dõi trạng thái chỉ mục của các trang web.

Vào năm 2015, có thông tin cho rằng Google đang phát triển và quảng bá tìm kiếm trên thiết bị điện thoại như một tính năng chính trong các sản phẩm tương lai. Để đáp lại, nhiều thương hiệu bắt đầu có cách tiếp cận khác đối với các chiến lược tiếp thị trên Internet của họ. [20]
Mối quan hệ với Google

Năm 1998, hai sinh viên tốt nghiệp tại Đại học Stanford, Larry Page và Sergey Brin, đã phát triển "Backrub", một công cụ tìm kiếm dựa trên một thuật toán toán học để reviews mức độ nổi bật của các trang web. Con số được tính toán bởi thuật toán, Xếp hạng trang, là một hàm của số lượng và độ mạnh của các liên kết đến. [21] PageRank ước tính khả năng một trang nhất định sẽ được tiếp cận bởi một người dùng web ngẫu nhiên lướt web và theo các liên kết từ trang này sang trang khác. Trên thực tế, điều này có nghĩa là một số links mạnh hơn những liên kết khác, vì trang Xếp hạng trang cao hơn có nhiều khả năng được truy cập bởi người lướt web ngẫu nhiên hơn.

Page và Brin thành lập và hoạt động Google vào năm 1998. [22] Google đã lôi cuốn một lượng người theo dõi trung thành giữa số lượng gia tăng người dùng Internet, những người thích kiến tạo đơn giản của nó. [23] Các yếu tố ngoài trang (chẳng hạn như Xếp hạng trang và phân tích siêu backlink) được xem xét cũng như các yếu tố trên trang (chẳng hạn như tần suất từ ​​khóa, thẻ meta, tiêu đề, liên kết và cấu trúc trang web) để cho phép Google tránh loại thao tác được thấy trong các công cụ tìm kiếm mà chỉ xem xét các yếu tố trên trang cho thứ hạng của họ. mặc dù PageRank khó chơi hơn, nhưng các quản trị viên web đã phát triển các công cụ và kế hoạch xây dựng liên kết để liên quan đến công cụ tìm kiếm Inktomi và các phương thức này được chứng minh là có thể áp dụng tương tự đối với PageRank chơi game. Nhiều trang web tập trung vào việc trao đổi, mua và bán các liên kết, thường ở quy mô lớn. Một số chiến lược này, hoặc các trang trại liên kết, tác động đến việc tạo ra hàng nghìn trang web với mục đích duy nhất là gửi spam link. [24]

Đến năm 2004, các công cụ tìm kiếm đã cấu kết một loạt các yếu tố chưa được tiết lộ trong các thuật toán xếp hạng của họ để giảm tác động của việc thao túng liên kết. Vào tháng 6 năm 2007, Saul Hansell của The New York Times tuyên bố rằng Google xếp hạng các trang web sử dụng hơn 200 tín hiệu khác nhau. [25] Các công cụ tìm kiếm bậc nhất, Google, Bing và Yahoo, không tiết lộ các thuật toán mà họ sử dụng để xếp hạng các trang. Một số học viên SEO đã nghiên cứu các cách tiếp cận không giống nhau để tối ưu hóa công cụ tìm kiếm và đã chia sẻ ý kiến ​​cá nhân của họ. [26] Bằng sáng chế liên quan đến công cụ tìm kiếm có thể cung cấp thông tin để hiểu rõ hơn về công cụ tìm kiếm. [27] Năm 2005, Google bắt đầu cá nhân hóa kết quả tìm kiếm cho từng người dùng. Tùy thuộc vào lịch sử tìm kiếm trước đó của họ, Google tạo ra kết quả cho những người dùng đã đăng nhập. [28]

Vào năm 2007, Google đã có phát ngôn một chiến dịch chống lại các backlinks trả phí chuyển PageRank. [29] Vào ngày 15 tháng 6 năm 2009, Google tiết lộ rằng họ đã thực hiện các biện pháp để giảm thiểu liên quan của việc tạo PageRank bằng cách sử dụng thuộc tính nofollow trên các liên kết. Matt Cutts, một kỹ sư phần mềm nổi danh tại Google, đã thông báo rằng Google Bot sẽ không còn xử lý bất kỳ liên kết nofollow nào theo cách tương tự, để ngăn các nhà cung cấp dịch vụ SEO sử dụng nofollow để tạo PageRank. [30] Kết quả của sự thay đổi này là việc sử dụng nofollow đã dẫn đến việc bốc hơi PageRank. Để tránh những điều trên, các kỹ sư SEO đã phát triển các kỹ thuật sửa chữa thay thế thay thế các thẻ nofollowed bằng JavaScript bị xáo trộn và do đó cho phép tạo PageRank. Trong khi, một số giải pháp đã được đề xuất bao gồm việc sử dụng iframe, Flash và JavaScript. [31]

Vào tháng 12 năm 2009, Google thông báo họ sẽ sử dụng lịch sử tìm kiếm trên web của tất cả người dùng của mình để đưa vào kết quả tìm kiếm. [32] Vào ngày 8 tháng 6 năm 2010, một hệ thống lập chỉ mục web mới có tên là Google Caffeine đã được công bố. Được kiến thiết để cho phép người dùng tìm thấy kết quả tin tức, bài đăng trên diễn đàn và nội dung khác sau khi xuất bản sớm hơn nhiều so với trước đây, Google Caffeine là một thay đổi đối với cách Google cập nhật chỉ mục của mình để triển khai cho mọi thứ hiển thị nhanh hơn trên Google so với trước đây. Theo Carrie Grimes, kỹ sư phần mềm đã có phát ngôn Caffeine cho Google, "Caffeine cung cấp kết quả tìm kiếm trên web mới hơn 50% so với chỉ mục rút cuộc của chúng tôi ..." [33] Google Instant, tìm kiếm theo thời gian thực, được giới thiệu vào cuối năm 2010 trong cố gắng làm cho kết quả tìm kiếm tương xứng và kịp thời hơn. Trong lịch sử, các quản trị viên trang web đã dành nhiều tháng hoặc thậm chí nhiều năm để tối ưu hóa một trang web để tăng thứ hạng tìm kiếm. Với sự phát triển về mức độ phổ biến của các trang mạng xã hội và blog, các công cụ bậc nhất đã thực hiện các thay đổi đối với thuật toán của họ để cho phép nội dung mới có thứ hạng nhanh chóng trong kết quả tìm kiếm. [34]
Vào tháng 2 năm 2011, Google đã công bố bản cập nhật Panda, bản cập nhật này sẽ phạt các trang web có nội dung trùng lặp từ các trang web và nguồn khác. Trong lịch sử các trang web đã sao chép nội dung của nhau và được hưởng lợi trong xếp hạng công cụ tìm kiếm bằng cách tham gia vào thực hành này. Tuy nhiên, Google đã triển khai một hệ thống mới trừng phạt các trang web có nội dung không độc đáo. [35] Google Penguin năm 2012 đã cố gắng trừng phạt các trang web sử dụng các kỹ thuật thao túng để cải thiện thứ hạng của họ trên công cụ tìm kiếm. [36] mặc dù Google Penguin đã được diễn giả như một thuật toán nhằm chống lại spam web, nó thực thụ tập trung vào các link spam [37] bằng cách review chất lượng của các trang web mà các liên kết đến từ đó. Bản cập nhật Google Hummingbird 2013 có một thay đổi thuật toán được thiết kế để cải thiện khả năng xử lý ngôn ngữ tự nhiên của Google và hiểu ngữ nghĩa của các trang web. Hệ thống xử lý ngôn ngữ của Hummingbird thuộc thuật ngữ mới được công nhận là "tìm kiếm đàm thoại", trong đó hệ thống chú ý nhiều hơn đến từng từ trong truy vấn để đối sánh các trang với ý nghĩa của truy vấn hơn là một vài từ. [38] thúc đẩy đến những thay đổi được thực hiện để tối ưu hóa công cụ tìm kiếm, đối với các nhà xuất bản và nhà văn nội dung, Hummingbird nhằm giải quyết các vấn đề bằng cách loại trừ nội dung không tác động và spam, cho phép Google tạo ra nội dung chất lượng cao và dựa vào chúng để trở thành tác giả 'đáng tin tưởng' .

Vào tháng 10 năm 2019, Google thông báo họ sẽ bắt đầu áp dụng mô hình BERT cho các truy vấn tìm kiếm bằng tiếng Anh ở Hoa Kỳ. Trình diễn mã hóa hai chiều từ Người biến hình (BERT) là một nỗ lực khác của Google nhằm cải thiện khả năng xử lý ngôn ngữ tự nhiên của họ nhưng lần này là để hiểu rõ hơn các truy vấn tìm kiếm của người dùng. [39] Về tối ưu hóa công cụ tìm kiếm, BERT dự định kết nối người dùng thuận tiện hơn với nội dung có thúc đẩy và tăng chất lượng lưu lượng truy cập đến các trang web đang xếp hạng trong Trang kết quả của công cụ tìm kiếm.
phương pháp
Được lập chỉ mục
Công cụ tìm kiếm sử dụng các thuật toán toán học phức hợp để giải thích trang web nào mà người dùng tìm kiếm. Trong sơ đồ này, nếu mỗi bong bóng đại diện cho một trang web, các chương trình đôi khi được gọi là trình thu thập dữ liệu sẽ kiểm tra trang web nào liên kết đến trang web nào khác, với các mũi tên đại diện cho các liên kết này. Các trang web thu được nhiều liên kết đến hơn hoặc liên kết mạnh hơn, được cho là quan trọng hơn và những gì người dùng đang tìm kiếm. Trong ví dụ này, vì trang web B là nơi nhận nhiều links đến, nó xếp hạng cao hơn trong tìm kiếm trên web. Và các backlinks "mang qua", chẳng hạn như trang web C, Tuy nó chỉ có một liên kết đến, có một liên kết đến từ một trang web rất phổ biến (B) trong khi trang web E thì không. xem xét: Tỷ Lệ được làm tròn.

Các công cụ tìm kiếm hàng đầu, chẳng hạn như Google, Bing và Yahoo !, sử dụng trình thu thập thông tin để tìm các trang cho kết quả tìm kiếm theo thuật toán của họ. Các trang được liên kết từ các trang được lập chỉ mục của công cụ tìm kiếm khác không cần phải gửi vì chúng được tìm thấy tự động. Yahoo! Directory và DMOZ, hai thư mục chính lần lượt đóng cửa vào năm 2014 và 2017, đều yêu cầu gửi thủ công và đánh giá biên tập của con người. [40] Google cung cấp Google Search Console, trong đó nguồn cấp dữ liệu Sơ đồ trang web XML có thể được tạo và gửi miễn phí để đảm bảo rằng tất cả các trang đều được tìm thấy, đặc biệt là các trang không thể phát hiện được bằng cách tự động hóa theo liên kết [41] ngoài bảng điều khiển gửi URL của chúng. [42 ] Yahoo! trước đây đã vận hành một dịch vụ gửi trả phí đảm bảo thu thập thông tin với giá mỗi nhấp chuột; [43] mặc dù, hoạt động này đã bị ngừng vào năm 2009.

Trình thu thập thông tin của công cụ tìm kiếm có thể xem xét một số yếu tố khác nhau khi thu thập thông tin một trang web. Không phải mọi trang đều được lập chỉ mục bởi các công cụ tìm kiếm. Khoảng cách của các trang từ thư mục gốc của một trang web cũng có thể là một yếu tố trong việc các trang có được thu thập thông tin hay không. [44]

Ngày nay, hầu hết mọi người đang tìm kiếm trên Google bằng thiết bị di động. [45] Vào tháng 11 năm 2016, Google đã công bố một thay đổi lớn đối với cách craw dữ liệu các trang web và bắt đầu đặt chỉ mục của họ lên trên thiết bị điện thoại trước tiên, Tức là phiên bản di động của một trang web cố định trở thành điểm khởi đầu cho những gì Google đưa vào chỉ mục của họ. [46] Vào tháng 5 năm 2019, Google đã cập nhật công cụ kết xuất của trình thu thập thông tin của họ thành phiên bản Chromium mới nhất (74 tại thời điểm thông báo). Google cho biết rằng họ sẽ thường xuyên cập nhật công cụ kết xuất Chromium lên phiên bản mới nhất. [47] Vào tháng 12 năm 2019, Google đã bắt đầu cập nhật chuỗi Tác nhân người dùng của trình thu thập thông tin của họ để phản ánh phiên bản Chrome mới nhất được dịch vụ kết xuất của họ sử dụng. Sự chậm trễ này là để cho phép quản trị viên web có thời gian cập nhật mã của họ đáp ứng các chuỗi Tác nhân người dùng bot cụ thể. Google đã chạy các review và cảm thấy tin rằng tương tác sẽ nhỏ. [48]
Ngăn thu thập thông tin
Bài chi tiết: Tiêu chuẩn đào thải rô bốt

Để tránh nội dung không mong muốn trong chỉ mục tìm kiếm, quản trị viên web có thể hướng dẫn trình thu thập thông tin không thu thập dữ liệu các tệp hoặc thư mục nhất thiết phê chuẩn tệp robots.txt chuẩn trong thư mục gốc của miền. Trong khi, một trang có thể bị loại trừ rõ ràng khỏi cơ sở dữ liệu của công cụ tìm kiếm bằng cách sử dụng thẻ meta dành riêng cho rô bốt (thường là

). Khi một công cụ tìm kiếm truy cập một trang web, tệp robots.txt nằm trong thư mục gốc là tệp đầu tiên được thu thập thông tin. Tiếp nối, tệp robots.txt sẽ được phân tích cú pháp và sẽ hướng dẫn rô bốt biết trang nào không được thu thập thông tin. Vì trình thu thập thông tin của công cụ tìm kiếm có thể giữ bản sao được lưu trong bộ nhớ cache của tệp này, nên đôi khi nó có thể thu thập dữ liệu các trang mà quản trị viên web không muốn thu thập thông tin. Các trang thường bị ngăn thu thập thông tin bao gồm các trang đăng nhập cụ thể như giỏ hàng và nội dung dành riêng cho người dùng, chẳng hạn như kết quả tìm kiếm từ các tìm kiếm nội bộ. Vào tháng 3 năm 2007, Google đã cảnh báo các quản trị viên web rằng họ nên ngăn chặn việc lập chỉ mục các kết quả tìm kiếm nội bộ vì những trang đó bị coi là spam tìm kiếm. [49]
ngày một nổi bật

Nhiều phương pháp có thể làm tăng sự nổi bật của một trang web trong kết quả tìm kiếm. Việc liên kết chéo giữa các trang của cùng một trang web để cung cấp nhiều liên kết hơn đến các trang quan trọng có thể cải thiện khả năng hiển thị của nó. [50] up nội dung bao gồm cụm từ khóa được tìm kiếm thường xuyên, để có liên quan đến nhiều loại truy vấn tìm kiếm sẽ có xu hướng tăng lưu lượng truy cập. [50] Cập nhật nội dung để giữ cho các công cụ tìm kiếm thu thập thông tin lại thường xuyên có thể tạo thêm sức nặng cho một trang web. Thêm từ khóa có tương tác vào siêu dữ liệu của trang web, bao gồm thẻ tiêu đề và biểu lộ meta, sẽ có xu hướng cải thiện mức độ tác động của danh sách tìm kiếm của trang web, do đó tăng lưu lượng truy cập. Việc chuẩn hóa URL của các trang web có thể truy cập qua nhiều URL, sử dụng phần tử liên kết chuẩn [51] hoặc qua chuyển hướng 301 có thể giúp đảm bảo các liên kết đến các phiên bản khác biệt của URL đều được tính vào điểm phổ biến của backlink của trang.
Kỹ thuật mũ trắng so với mũ đen

Các kỹ thuật SEO có thể được phân thành hai loại lớn: các kỹ thuật mà các công ty công cụ tìm kiếm đề xuất như một phần của thiết kế tốt ("mũ trắng") và các kỹ thuật mà các công cụ tìm kiếm không chấp nhận ("mũ đen"). Các công cụ tìm kiếm cố gắng giảm thiểu thúc đẩy của thứ sau, trong số đó có spamdexing. Các nhà bình luận trong ngành đã phân loại các phương thức này và các học viên sử dụng chúng, là SEO mũ trắng hoặc SEO mũ đen. [52] Mũ trắng có xu hướng tạo ra kết quả tồn tại trong một thời gian dài, trong khi mũ đen dự đoán rằng các trang web của họ chung cục có thể bị cấm nhất thời hoặc vĩnh viễn khi các công cụ tìm kiếm phát hiện ra chúng đang làm gì. [53]

Một kỹ thuật SEO được coi là mũ trắng nếu nó tuân hành các nguyên tắc của công cụ tìm kiếm và không thúc đẩy đến sự lừa dối. Vì các hướng dẫn của công cụ tìm kiếm [17] [18] [54] không được viết dưới dạng một loạt các quy tắc hoặc lệnh, đây là một điểm khác biệt quan trọng cần để ý. SEO mũ trắng không chỉ là tuân theo các nguyên tắc mà còn là đảm bảo rằng nội dung mà một công cụ tìm kiếm lập chỉ mục và xếp hạng Tiếp nối là cùng một nội dung mà người dùng sẽ thấy. Lời khuyên mũ trắng thường được tóm tắt là tạo nội dung cho người dùng, không phải cho công cụ tìm kiếm và sau đó làm cho nội dung đó dễ dàng truy cập vào các thuật toán "con nhện" trực tuyến, thay vì cố gắng đánh lừa thuật toán khỏi mục đích đã định. SEO mũ trắng về nhiều mặt tương tự như phát triển web nhằm tương tác khả năng truy cập, [55] Mặc dù cả hai không giống nhau.

SEO mũ đen cố gắng cải thiện thứ hạng theo những cách bị các công cụ tìm kiếm khước từ hoặc tác động đến lừa dối. Một kỹ thuật mũ đen sử dụng văn bản ẩn, hoặc là văn bản có màu tương tự như nền, trong một div ẩn hoặc được đặt ngoài màn hình. Một phương pháp khác cung cấp một trang khác tùy thuộc vào việc trang đó được khách truy cập hay công cụ tìm kiếm yêu cầu, một kỹ thuật được gọi là kỹ thuật che giấu. luôn tiện loại khác đôi khi được sử dụng là SEO mũ xám. Điều này nằm giữa phương pháp tiếp cận mũ đen và mũ trắng, trong đó các cách thức được sử dụng tránh trang web bị phạt nhưng không hoạt động trong việc tạo ra nội dung tốt nhất cho người dùng. SEO mũ xám hoàn toàn tụ tập vào việc cải thiện thứ hạng của công cụ tìm kiếm.

Các công cụ tìm kiếm có thể phạt các trang web mà họ phát hiện bằng cách sử dụng các phương pháp mũ đen hoặc xám, bằng cách giảm thứ hạng của họ hoặc sa thải hoàn toàn danh sách của họ khỏi cơ sở dữ liệu của họ. Các hình phạt như vậy có thể được áp dụng auto bởi các thuật toán của công cụ tìm kiếm hoặc bằng cách xem xét trang web thủ công. Một ví dụ là vào tháng 2 năm 2006 Google đã sa thải cả BMW Đức và Ricoh Đức vì hành vi lừa đảo. [56] tuy vậy, cả hai công ty đã lập cập xin lỗi, sửa các trang vi phạm và được khôi phục về trang kết quả của công cụ tìm kiếm của Google. [57]
Là chiến lược tiếp thị

SEO không phải là một chiến lược thích hợp cho mọi trang web và các chiến lược tiếp thị trên Internet khác có thể hiệu quả hơn, chẳng hạn như quảng cáo trả tiền phê chuẩn chiến dịch trả tiền cho mỗi lần nhấp chuột (PPC), tùy thuộc vào kim chỉ nam của nhà điều hành trang web. Tiếp thị công cụ tìm kiếm (SEM) là hoạt động thi công, chạy và tối ưu hóa các chiến dịch quảng cáo trên công cụ tìm kiếm. [58] Sự khác biệt của nó so với SEO được thể hiện đơn giản nhất là sự khác biệt giữa xếp hạng ưu tiên có trả tiền và không trả tiền trong kết quả tìm kiếm. SEM tập trung vào sự nổi bật hơn là mức độ liên quan; các nhà phát triển trang web nên coi SEM là tầm quan trọng hàng đầu khi xem xét khả năng hiển thị vì hầu hết điều hướng đến danh sách chính tìm kiếm của họ. [59] Một chiến dịch tiếp thị trên Internet thành công cũng có thể phụ thuộc vào việc xây dựng các trang web chất lượng cao để lôi cuốn và thuyết phục người dùng internet, thiết lập cấu hình các chương trình phân tích để cho phép chủ sở hữu trang web đo lường kết quả và cải thiện Phần Trăm chuyển đổi của trang web. [60] Vào tháng 11 năm 2015, Google đã phát hành phiên bản đầy đủ 160 trang của Nguyên tắc xếp hạng chất lượng tìm kiếm của mình cho công chúng, [61] cho thấy sự thay đổi trọng điểm của họ đối với "tính hữu ích" và tìm kiếm trên thiết bị di động. Trong những năm gần đây, thị trường dế yêu đã bùng nổ, vượt qua việc sử dụng máy tính để bàn, biểu hiện bởi StatCounter vào tháng 10 năm 2016, nơi họ phân tích 2,5 triệu trang web và nhận thấy rằng 51,3% số trang được tải bằng thiết bị di động. [62] Google là một trong những công ty đang tận dụng sự phổ biến của việc sử dụng thiết bị thiết bị cầm tay bằng cách khuyến khích các trang web sử dụng Google Search Console của họ, Bài kiểm tra tính thân thiện với thiết bị di động, cho phép các công ty đo lường trang web của họ với kết quả của công cụ tìm kiếm và xác định mức độ thân thiết với người dùng trang web của họ là.

SEO có thể tạo ra ROI tương xứng. mặc dù, các công cụ tìm kiếm không được trả tiền cho lưu lượng tìm kiếm không phải trả tiền, các thuật toán của chúng thay đổi và không có gì đảm bảo về việc tiếp tục giới thiệu. Do sự thiếu đảm bảo này và sự không chắc chắn, một công ty phụ thuộc nhiều vào lưu lượng truy cập của công cụ tìm kiếm có thể bị thiệt hại lớn nếu công cụ tìm kiếm ngừng gửi khách truy cập. [63] Các công cụ tìm kiếm có thể thay đổi thuật toán của chúng, ảnh hưởng đến xếp hạng trên công cụ tìm kiếm của trang web, có thể dẫn đến mất lưu lượng truy cập nghiêm trọng. Theo Giám đốc điều hành của Google, Eric Schmidt, trong năm 2010, Google đã thực hiện hơn 500 lần thay đổi thuật toán - gần 1,5 lần Từng Ngày. [64] Nó được coi là một thực hành kinh doanh khôn ngoan cho các nhà điều hành trang web để giải phóng mình khỏi sự phụ thuộc vào lưu lượng truy cập của công cụ tìm kiếm. [65] Ngoài khả năng truy cập về trình craw dữ liệu web (đã nêu ở trên), khả năng truy cập web của người dùng càng ngày càng trở nên quan trọng đối với SEO.
Thị Trường quốc tế

Các kỹ thuật tối ưu hóa được điều chỉnh tương xứng với các công cụ tìm kiếm thống trị trong thị phần kim chỉ nam. thị phần của các công cụ tìm kiếm khác nhau giữa các thị trường, cũng như cạnh tranh. Năm 2003, Danny Sullivan tuyên bố rằng Google đại diện cho khoảng 75% tổng số tìm kiếm. [66] Ở các thị trường bên ngoài Hoa Kỳ, Thị trường của Google thường lớn hơn và Google vẫn là công cụ tìm kiếm thống trị trên toàn thế giới tính đến năm 2007. [67] Tính đến năm 2006, Google có 85–90% thị phần ở Đức. [68] Trong khi có hàng trăm công ty SEO ở Mỹ vào thời điểm đó, thì chỉ có khoảng năm công ty ở Đức. [68] Tính đến tháng 6 năm 2008, thị phần của Google tại Vương quốc Anh là gần 90% theo Hitwise. [69] thị trường đó đạt được ở một số quốc gia.

Tính đến năm 2009, chỉ có một số Thị phần lớn mà Google không phải là công cụ tìm kiếm bậc nhất. Trong hầu hết các trường hợp, khi Google không dẫn đầu trong một Thị Phần nhất mực, Google sẽ tụt hậu so với một công ty địa phương. Các thị trường điển hình đáng chăm chú nhất là Trung Quốc, Nhật Bản, Hàn Quốc, Nga và Cộng hòa Séc, nơi tương ứng là Baidu, Yahoo! Nhật Bản, Naver, Yandex và Seznam dẫn đầu Thị Trường.

Tối ưu hóa tìm kiếm thành công cho thị phần quốc tế có thể yêu cầu dịch chuyên nghiệp các trang web, đăng ký tên miền với miền cấp cao nhất trong thị phần mục tiêu và lưu trữ web cung cấp địa chỉ IP cục bộ. Mặt khác, các yếu tố cơ bản của tối ưu hóa tìm kiếm về cơ bản giống nhau, bất kể ngôn ngữ. [68]
Tiền lệ pháp

Vào ngày 17 tháng 10 năm 2002, SearchKing đã đệ đơn kiện lên Tòa án quận Hoa Kỳ, Quận Tây Oklahoma, chống lại công cụ tìm kiếm Google. Tuyên bố của SearchKing là các chiến thuật của Google để ngăn chặn gửi thư rác đã tạo nên một sự can thiệp nghiêm trọng vào các quan hệ hợp đồng. Vào ngày 27 tháng 5 năm 2003, tòa án đã cho phép Google bác bỏ đơn khiếu nại vì SearchKing "không đưa ra được khiếu nại mà theo đó có thể được cứu trợ". [70] [71]

Vào tháng 3 năm 2006, KinderStart đã đệ đơn kiện Google về xếp hạng công cụ tìm kiếm. Trang web của KinderStart đã bị xóa khỏi chỉ mục của Google trước vụ kiện, và lượng truy cập vào trang web đã giảm 70%. Vào ngày 16 tháng 3 năm 2007, Tòa án Quận phía Bắc của California (San Jose Division) của Hoa Kỳ đã bác đơn khiếu nại của KinderStart mà không cần nghỉ phép để sửa đổi và chấp nhận một phần kiến ​​nghị của Google về các biện pháp trừng phạt theo Quy tắc 11 đối với luật sư của KinderStart, yêu cầu anh ta phải trả một phần tiền chi phí hợp pháp. [72] [73]

Nhận xét

Bài đăng phổ biến từ blog này

thi công lắp đặt camera CTY DOANH NGHIỆP ở Quảng Nam

PLC Mitsubishi FX1N hạp với các bài toán điều khiển

tính pháp lý Biệt thự Angsana Hồ Tràm như thế nào