Bạn đang bắt đầu tìm hiểu về tối ưu hóa website trên Google? Bạn đã sáng suốt lúc bắt đầu chọn hiểu cơ chế hoạt động của công cụ tìm kiếm này. Bởi "Biết địch biết ta, trăm trận trăm thắng". Chỉ lúc bạn nắm rõ được cơ chế hoạt động của công cụ tìm kiếm này, bạn mới với thể tối ưu hóa website 1 phương pháp thật hiệu quả.
Trước khi đi vào những giải thích cụ thể về cơ chế hoạt động của Google, chúng ta hãy cũng xem qua một video clip của Matt Cutts – Cựu trưởng nhóm Google Webspam, giải thích về cơ chế hoạt động của công cụ chọn kiếm Google.
Matt Cutts kể gì về cơ chế hoạt động của Google?
video của Matt Cutts – trưởng nhóm Google Webspam, giới thiệu về giai đoạn tìm kiếm và xử lý thông tin của Google Search
Qua video này, chúng ta thấy được Google với 3 bộ phận riêng biệt tham gia vào cấu thành nên kết quả cho bảng xếp hạng kết quả tìm kiếm (SERP) mà chúng ta vẫn thường xem, bao gồm:
- Crawling & Indexing – Thu thập và lập chỉ mục dữ liệu
- Algorithms – Thuật toán xếp hạng web
- Fighting spam – Chống spam
3 bộ phận này sẽ đảm nhiệm 3 quá trình khác nhau trong giai đoạn đưa 1 website lên bảng xếp hạng kết quả tìm kiếm của Google. Để chọn hiểu rõ hơn về quy trình hoạt động của 3 giai đoạn này, thứ 1 chúng ta hãy cộng đi vào tìm hiểu giai đoạn thu thập và lập chỉ mục dữ liệu website: –Crawling & Indexing.
Thu thập dữ liệu và lập chỉ mục
Để mang một kết quả tìm kiếm như bạn vẫn thường thấy trên SERP, Google đã phải thực hiện cả một quá trình vô cùng dài trước đấy, bắt đầu từ việc thu thập thông tin và lập chỉ mục cho hàng nghìn tỷ trang website trên mạng internet.
Công việc này được thực hiện bằng các công cụ mang tên gọi là "trình thu thập thông tin website" hay những con bot của Google hoặc Crawlers. Về bản chất, trình thu thập thông tin là 1 phần mềm có khả năng hoạt động độc lập, có nhiệm vụ thu thập dữ liệu về nội dung và liên kết trên trang và đem những thông tin đó về cho máy chủ chọn kiếm của Google.
Công cụ được biết đến đa dạng nhất và mang thể hoạt động phổ biến nhất đấy là Googlebot. Giống như 1 con vật bò trườn, Googlebot sẽ lần lượt bò trường qua đa số các nội dung trên trang web, chui và đa số những liên kết mang mặt trên trang, cho đến khi không còn đi tiếp được nữa, để sở hữu thể thu thập chi tiết các dữ liệu về trang website đấy, xem các trang này đang nói về nội dung gì, mang bao nhiêu trang đang trỏ tới và trỏ đi từ trang này.
Từ đấy, quá trình này được đặt tên là Crawling – bò trườn theo nghĩa sinh động hóa phương pháp thu thập thông tin của Googlebot.
quá trình thu thập dữ liệu – Crawling
giai đoạn này sẽ được bắt đầu mang một danh sách các url từ các lần thu thập thông tin trước ấy hoặc từ sitemaps – sơ đồ cấu trúc web mà những quản trị viên đã gửi đến Google. Sau đấy, từ những trang website này, Googlebot sẽ truy cập những trang web khác mang liên kết tới trang web này. những trang website mới hoặc có sự cập nhật về nội dung sẽ được Google đặc thù để ý,
Trình thu thập dữ liệu này cũng đồng thời xác định website nào phải thu thập dữ liệu , cùng có số lần thu thập thông tin nhu yếu, hay biên độ thu thập thông tin cộng sở hữu số lượng trang web cần thiết cần thu thập thông tin những trang website này. những số liệu này hoàn toàn được tạo 1 phương pháp tự động và không mang sự can thiệp của con người.
giai đoạn lập chỉ mục dữ liệu web – Indexing
những dữ liệu thu được từ công đoạn crawl web sau ấy sẽ được thu thập về máy chủ Google và tiến hành index –lập chỉ mục dữ liệu. xuất phát từ góc nhìn về việc Internet giống như một thư viện công cùng có hàng nghìn tỷ cuốn sách khác nhau và ngày càng được nâng cao lên về số lượng, Google đã đưa ra cho mình ý tưởng về việc thu thập và xử lý dữ liệu của các website này.
Về cơ bản, công cụ tìm kiếm này sẽ mã hóa dữ liệu dưới dạng text và đánh chỉ mục chúng để sở hữu thể lưu lại và trích xuất dễ dàng như lúc chúng ta đọc một mục lục của một cuốn sách. các chỉ mục nãy sẽ bao gồm một số thông tin như các từ khóa cùng vị trí của chúng trên trang. Để lúc người dùng chọn kiếm một từ khóa nào đó, công cụ này sẽ chỉ việc chọn kiếm theo từ khóa và trích xuất kết quả một bí quyết dễ dàng mang thời gian ngắn nhất.
Tuy nhiên, những mã hóa này mang thể trở lên phức tạp hơn lúc Google muốn khách hàng sẽ nhận được 1 kết quả tìm kiếm nhiều nhất có rộng rãi mẫu hình nội dung liên quan đến truy vấn tìm kiếm của bạn như hình ảnh, video,.. hay thậm chí là 1 vị trí địa danh trên Google Maps.
Vậy, lúc khách hàng chọn kiếm 1 truy vấn nào ấy, khiến cho thể nào để công cụ chọn kiếm quyết định xem website bạn sở hữu được xếp hạng cao hơn các website khác hay không? tất cả sẽ được giải thích trong phần tiếp theo : Algorithms – Thuật toán xếp hạng web.
Algorithms – Thuật toán xếp hạng web
Để quyết định một trang website có giá trị về nội dung hay ko đến sở hữu quý khách, Google đã buộc phải sử dụng hầu hết những tiêu chí xếp hạng khác nhau. hiện tại, Google đang có khoảng hơn 200 những tiêu chí khác nhau để xác định giá trị của một trang web. những tiêu chí này giống như những bộ lọc giúp sàng lọc các trang web mang giá trị về nội dung từ hàng triệu các trang khác cộng đề cập về truy vấn của người dùng.
Về bản chất, những tiêu chí này chính là các thuật toán và công thức được làm lên thành một quy trình nhất định để mang đến một trả lời tốt nhất cho mỗi truy vấn tìm kiếm của các bạn. những tiêu chí này được dựa trên 1 số những thông tin của trang web như những từ, cụm từ, (từ khóa), độ nhiều của website (backlink), độ đảm bảo của tên miền, pagerank,…
Để tránh hiện tượng spam kết quả chọn kiếm, Google đã và đang cố gắng giữ bí mật về những tiêu chí xếp hạng này. Tuy nhiên, vì là thuật toán được mang tác dụng ngay đến đồ vật hạng của một web, cần theo thời gian, một số những tiêu chí này dần được các SEOer khám phá ra. Ví dụ như mật độ từ khóa trên trang, số lượng và đảm bảo của backlink,…
Tình trạng spam vì thế mà bắt đầu vươn lên là ngày 1 rộng rãi hơn. Để khắc phục tình trạng spam này, Google đã ra đời một đội chuyên phòng chống spam: Google Webspam team để thực hiện 1 bước quan trọng thứ 3 – bước cuối cộng trong việc cấu thành cần bảng xếp hạng kết quả chọn kiếm: Fighting spam – Chống spam
Fighting spam – Chống spam
Theo thống kê của Google, với hàng triệu trang website được tạo ra mỗi ngày chỉ vì mục đích spam, và hoàn toàn vô ích đối có các bạn. Để chống lại cơn bão spam này, Google cần ra đời 1 nhóm các kỹ sư hàng đầu để làm cho sao với thể lọc được trang spam này mà ko khiến cho ảnh hưởng đến những website khác.
Giải pháp cho tình trạng này hiện giờ của Google ấy là sử dụng các thuật toán chống spam như Google Panda và Google Penguin, đồng thời kết hợp với việc đánh giá thủ công (đánh giá bằng sức người) về tình trạng spam của 1 web. Tình trạng spam đã suy giảm đáng kể từ ngày thứ nhất bước chống spam này được triển khai.
1 số những thủ thuật spam mà Google đã phát hiện được như: nhồi nhét từ khóa, sắm backlink, hidden text, doorway,… những hiện tượng này chưa bắt buộc là mọi các thủ thuật spam của những SEOer bây giờ và đang trở thành ngày một tinh vi hơn, khó phát hiện hơn. vì thế Google đã cần với 1 nhóm riêng để đánh giá website, nhằm đem lại một kết quả tìm kiếm thân thiện nhất cho quý khách.
các web bị xác định là spam mang thể bị giảm trang bị hạng kết quả tìm kiếm liền hoặc ko được xếp hạng. Và sau đó, các web này sở hữu thể được đưa vào danh sách các website bắt buộc theo dõi, bị theo dõi bới một kỹ sư của Google hoặc nên chịu một số các hình phạt trực tiếp về ranking của Google.
Bạn mang thể tìm hiểu thêm về Google Panda và Google Penguin tại đây.
Lời kết
Trên đây là những giái thích cơ bản của vietmoz.com về cơ chế hoạt động của Google và phương pháp Google xếp hạng 1 web. Bạn sở hữu thể tìm hiểu thêm những cách để có 1 trang bị hạng cao trên Google qua bài viết chọn hiểu về seo – seo công cụ chọn kiếm (search engine optimization) là gì?
0 nhận xét:
Đăng nhận xét