Чем опасен дублированный текст для сайта
Как известно, одним из главных показателей качества и информативности страницы для поисковых систем является уровень уникальности контента. Размещение дублированной информации чревато исчезновением страницы из индекса поисковых систем. Причин, по которым в индексацию попадает неуникальный контент, существует несколько.
Чем опасен дублированный текст для сайта
Негативное влияние дублированного контента
Взятый со сторонних ресурсов текст для сайта – самая очевидная причина низкой уникальности. Но это далеко не всегда является причиной попадания в индекс поисковых систем дублирующего контента. Очень часто это может происходить и без ведома вебмастера. Дело в том, что индексироваться могут и дубли страниц – системные файлы и предназначенные для печати элементы сайта. Кроме того, к подобным последствиям может приводить и использование RSS-лент. В результате попадания таких страниц в индекс поисковых систем страница занижается в выдаче. Покупаемые ссылки могут вести не на проиндексированную поисковиками страницу, а сам сайт вполне может попасть под фильтры поисковых систем. Какой бы качественный текст для сайта вы ни размещали, поисковая оптимизация будет приносить нулевой результат. В связи с этим проверку на уникальность и отсутствие дублей в индексе следует осуществлять регулярно.
Как выявить неуникальный контент
Итак, как определить, насколько уникален текст для сайта? Наиболее быстрый способ – это воспользоваться такими интернет-сервисами, как copyscape.ru, antipagiat.ru, findcopy.ru, istio.com. Кроме того, не будет лишним обзавестись специализированными приложениями для проверки уникальности: double content finder, advego plagiatus, eTXT Антиплагиат. Они распространяются на бесплатной основе и обладают расширенными настройками. Проверить наличие дублей в индексе можно с помощью поисковых систем. Для этого необходимо ввести название проверяемой на проиндексированные дубликаты страницы в строку поиска и выставить поиск по сайту в расширенных настройках.
Что делать с дублями страниц
Для того, чтобы извлечь дубли из индексации, можно использовать несколько способов. Первый – удалить дублированный контент со страниц. Если это невозможно, то нежелаельные элементы можно скрыть от поисковых роботов. Это можно сделать, вписав в HTML-код страницы тэг robots. Он дополняется следующими директивами: index (индексировать), follow (учитывать ссылки), noindex (не индексировать), nofollow (не учитывать ссылки), all (индексировать всё), none(не индексировать ничего). Существует индивидуальный тег noindex для Яндекса. С помощью этого элемента можно скрыть отдельные фрагменты текста. Поисковой робот будет их видеть, но не будет учитывать. Этот тег удобно использовать для цитат с прямой речью, которые могут негативно влиять на общий уровень уникальности текста. Самые широкие возможности управления индексацией реализуются с помощью системного файла Robots.txt. Если его нет в корневом каталоге сайта, его можно создать самостоятельно с помощью текстового редактора или специального интернет-сервиса. Вспомогательные ресурсы для вебмастеров позволяют автоматически сгенерировать код с настройками для Robots.txt, которые достаточно скопировать в файл блокнота и сохранить его в корневом каталоге сайта.
Поддерживать необходимый уровень уникальности контента на сайте несложно. Сами размещаемые тексты должны быть уникальны как минимум на 95%. Это не только обеспечит лояльность со стороны поисковых систем, но и придаст сайту конкурентные преимущества в выдаче.
нормально
Согласен)
Здравствуйте, хотелось бы узнать ваше мнение о запрете индексации тегов.
Что именно вас интересует?
noindex, nofollow?