Yandex.Webmaster ще ви помогне да намерите дублирани страници с незначителни GET параметри

Сега намерете идентичните страници на сайта станаха по-лесни: в раздела „Диагностика“ на Yandex.Webmaster се появи специално известие, което ще ви разкаже за дубликати поради параметрите GET. & nbsp;
Не е нужно да се абонирате за & nbsp; известия, известието ще се появи само. Ако се намерят дубликати:
- Трябва да отидете на & nbsp; Webmaster, да отворите раздела Страници в & nbsp; търсенето, да изберете Изключени страници в таблицата & nbsp;.
< li>Изтеглете архива (можете да изберете подходящ формат в долната част на страницата) и & nbsp; прегледайте & nbsp; изтеглен файл: & nbsp; дублиращи се страници ще имат статус DUPLICATE.
Защо да проследявате дубликати
- Скорост на байпаса. Когато има много дубликати на & nbsp; сайт, роботите прекарват повече време и & nbsp; ресурси & nbsp; ги обхождат, вместо да обхождат ценно съдържание. И & nbsp; означава, че ценните страници на сайта ще влизат по -бавно в & nbsp; търсенето.
- Неуправляеми. Тъй като роботът за търсене избира произволно кой от & nbsp; дубликатите да се показва в & nbsp; търсенето, & nbsp; може да не получи нужните & nbsp; & nbsp; страници.
- Влияние върху & nbsp; търсенето. Ако незначителни параметри не са & nbsp; добавени към & nbsp; clean-param, роботът може да обхожда тези страници и & nbsp; да ги третира & nbsp; различни, без да ги комбинира & nbsp; в & nbsp; търсене. Тогава роботът за търсене ще получава различни неагрегирани сигнали за & nbsp; всеки от тях. Ако & nbsp; получи всички сигнали на една страница, тогава & nbsp; ще има & nbsp; шанс да бъде показан по -висок при & nbsp; търсене.
- Натоварването на & nbsp; сайта. Прекомерното обхождане от робота също дава натоварване на & nbsp; сайта. & nbsp;
Как да оставите желаната страница в & nbsp; търсене
1. & nbsp ; & nbsp; & nbsp; Добавете директивата & nbsp; Clean-param към & nbsp; файла & nbsp; robots.txt & nbsp; така че роботът да не & nbsp; отчита незначителни параметри GET в & nbsp; URL адреса. Роботът Yandex, използващ тази директива, няма да обхожда многократно дублирано съдържание. Това означава, че ефективността на обхождането ще се увеличи и & nbsp; натоварването на & nbsp; сайта ще намалее.
2. & nbsp; & nbsp; & nbsp; Ако не е възможно да добавите директивата Clean-param, трябва да посочите & nbsp; каноничен адрес на страницата, която ще участва в & nbsp; търсенето. Това няма да намали & nbsp; натоварването на & nbsp; сайта: роботът Yandex все още ще трябва да обхожда страницата, за да научи за & nbsp; rel = каноничен. Затова се препоръчва да се използва Clean-param като основен метод.
3. & nbsp; & nbsp; Ако по някаква причина & nbsp; не отговаря на предишните параграфи , можете просто да затворите & nbsp; дубликати от & nbsp; индексиране, използвайки директивата Disallow. Но & nbsp; в & nbsp; в този случай търсенето в Yandex няма да & nbsp; получава никакви сигнали от & nbsp; забранени страници. Затова все пак е по -добре & nbsp; използвайте Clean-param като основен метод.
За повече информация относно & nbsp; работата с & nbsp; дублирани страници вижте & nbsp; Помощ.
Припомнете си, че през пролетта, Yandex.Webmaster добави инструменти, които да ви помогнат бързо да намерите страници с & nbsp; дублиращи се заглавия и & nbsp; маркери за описание. & Nbsp;