Джон Мюллер: як Google ранжує сторінки, заблоковані robots.txt

Ранжування Гуглом зачинених у robots.txt сторінок

Під час останньої відеокімнати для вебмайстрів співробітник Google Джон Мюллер пояснив, як визначається релевантність запиту для тих сторінок, що заблоковані від сканування з допомогою robots.txt. Отже, як насправді здійснюється ранжування Гуглом зачинених сторінок.

Як стало відомо раніше, Google може індексувати заблоковані в robots.txt сторінки, якщо на них є посилання. Але як Google визначає, за якими типами запитів ранжувати ці URL?

Питання до Мюллеру звучало так:

Сьогодні всі говорять про наміри користувача. Якщо сторінка заблокована через robots.txt, але ранжується, як Google визначає релевантність її вмісту за запитом?

Мюллер відповів, що Google не може переглянути заблокований контент. Тому йому доводиться шукати інші шляхи, щоб порівняти поточний URL c іншими.

У більшості випадків Google буде пріоритезувати індексацію інших сторінок сайту, які більш доступні і не заблоковані від сканування.

I

При цьому іноді в результатах пошуку можуть виводитися заблоковані сторінки. Це відбувається в тих випадках, коли Google вважає, що таке рішення виправдане. Релевантність таких сторінок буде визначатися за посиланнями, вказує на них.

Ось відповідь Мюллера:

Нагадаємо, що у рамках роботи над перекладом Robots Exclusion Protocol в розряд інтернет-стандартів Google вирішив відключити підтримку недокументованих правил robots.txt, включаючи директиву noindex.

Дуже поганоПоганоНормальноДобреВідмінно (1 оцінок, середнє: 5,00 з 5)
Loading...
Like this post? Please share to your friends:
Залишити відповідь

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: