самостоятельное
продвиждение сайтов

Фильтры поисковых систем. Как узнать, что сайт попал под фильтр?

6.09.2021
8 мин
2193
Дмитрий Косик

Диагностика и снятие фильтров поисковых систем — одна из распространённых проблем при работе над продвижением сайта. Часто вебмастера и даже некоторые оптимизаторы не умеют распознавать наложенные фильтры. Для них эта статья.

Для начала разберёмся с тем, какие фильтры имеют в своём арсенале две самые крупные поисковые системы — Google и Яндекс.

Фильтры Google

1. Panda — алгоритм Google, оценивающий качество сайтов в целом и контента, в частности. Фильтр, наложенный на сайт, лишает его трафика, перераспределяя последний в пользу других ресурсов. Panda оценивает ресурсы по следующим критериям:

· качество контента;

· наличие дублированного контента;

· плагиат;

· функциональность, юзабилити и дизайн сайта;

· избыточное количество и навязчивое размещение рекламы.

2. Penguin — алгоритм Google, который борется с манипулятивным линкбилдингом. В это понятие входят практически все искусственные способы наращивания внешней ссылочной массы: покупка ссылок, ссылочный спам на форумах и в блогах, публикация ссылок на аффилированных ресурсах, спам, в т.ч., замаскированный под гостевой постинг, злоупотребление SEO-анкорами, публикация невидимых для пользователей ссылок.

Данный фильтр накладывается не на сайт в целом, а на конкретные страницы. Фильтр не наказывает за манипулятивные ссылки, а обнуляет их влияние на ранжирование. Иначе говоря, он отменяет влияние ссылок на ранжирование конкретных документов.

3. Sandbox (песочница) — фильтр, ограничивающий посещаемость недавно созданных сайтов. Задача данного фильтра — препятствовать попаданию таких сайтов в топ выдачи Google по высокочастотным запросам, как коммерческим, так и информационным.

Введён для борьбы со спамом и сомнительными сайтами. Срок вывода сайта по самым топовым запросам может быть более 5 месяцев.

4. Supplemental Results — фильтр, помещающий в дополнительный индекс документы, отнесённые алгоритмом к недостаточно качественным и ценным для пользователей. Обычно применяется к документам, не имеющим оригинального контента.

5. Социтирование — фильтр, пессимизирующий сайты, «окруженные плохими соседями». Google может ухудшить ранжирование сайта по тематическим запросам, если наблюдается значимое количество нетематических доноров.

6. Too many links — фильтр, который накладывается при «ссылочном взрыве», т.е. если сайт обзаводится большим количеством доноров за короткий промежуток времени. Сайт может быть пессимизирован также в случае, если за короткое время на нём появится очень много страниц.

7. Битые ссылки — часть алгоритма, отвечающего за качество ресурсов.

Когда ссылка ведет на отсутствующую страницу, то поисковый робот не может до неё добраться. И, как следствие, не может поместить её в индекс и закэшировать (Google Cache). Это может плохо сказаться на результатах поиска, а также на общих показателях качества сайта.

8. «–30» — фильтр, направленный на борьбу с дорвеями и редиректами. При злоупотреблении перенаправлениями, сайт теряет 30 позиций в выдаче по всем запросам.

9. Дублированный контент — алгоритм, оценивающий качество ресурса. Лишает сайты-плагиаторы части трафика.

10. Переоптимизация — фильтр, использующийся, если на сайте применяются следующие манипуляции:

  • злоупотребление ключевыми фразами в теле документа (keyword stuffing);
  • избыточное использование ключей в title, description, атрибуте alt;
  • выделение ключевых фраз в тексте полужирным или цветом.

11. Фильтр за медленную загрузку страниц — фильтр, лишающий трафика ресурсы, не удовлетворяющие пользователей по техническим параметрам. При этом происходит падение позиций сайта в выдаче в целом или снижение позиций только в мобильной выдаче.

12. Фильтр за отсутствие оптимизации под мобильный трафик — часть поискового алгоритма, понижающая в мобильной выдаче ресурсы без адаптивной верстки или мобильной версии.

В ближайшее время мобильный индекс станет основным. Поэтому адаптация сайта под мобильный трафик обязательна.

Фильтры Яндекса

1. АГС — один из самых известных фильтров Яндекса, использующийся для борьбы с поисковым спамом и некачественными сайтами. АГС накладывается на сайты низкого качества (малоинформативные или состоящие преимущественно из неуникальных материалов), а также на сайты, участвующие в манипуляциях алгоритмом ранжирования путём простановки SEO-ссылок.

2. Баден-Баден — фильтр за переоптимизацию, наказывающий сайты, злоупотребляющие ключевыми фразами. Чтобы избежать данного фильтра, рекомендуем воспользоваться услугой «Написание текстов для сайта» от Wizard.Sape.

3. Фильтр за накрутку поведенческих факторов — фильтр, накладывающийся за имитацию действий пользователей.

4. Минусинск — фильтр, определяющий сайты, которые используют SEO-ссылки для поискового продвижения, и понижает эти сайты в ранжировании (обычно на 20 позиций по всем запросам) на срок от одного до нескольких месяцев.

По наблюдениям Wizard.Sape, в течение последнего года Минусинск не накладывался. В целом, оптимизаторы стали более аккуратно набирать ссылочную массу, отдавая предпочтение качеству, а не количеству.

5. Аффилиат-фильтр — фильтр для борьбы с монополизацией поисковой выдачи путём создания множества сайтов сходной тематики. Сайты считаются аффилиатами, если у них совпадают:

· хостинг;

· данные whois у доменов;

· тематика;

· адрес и название фирмы;

· IP-адреса и т.д.

Аффилированные сайты Яндекс удаляет из поисковой выдачи, оставляя только ресурс, который его алгоритмы определили, как главный.

6. Непот-фильтр — фильтр для борьбы с торговлей ссылок. Накладывается на сайты, участвующие в линкоторговле, с целью минимизации передачи с них ссылочного веса. Ухудшения ранжирования таких сайтов не происходит.

7. Санкции за взрослый контент — при наличии на сайте материалов категории 18+, Яндекс лишает его трафика по запросам, не относящимся к взрослой тематике. Чтобы избежать этого фильтра, не следует публиковать adult-контент.

8. Пессимизация за отсутствие адаптации к мобильному трафику — фильтр, который лишает мобильного трафика сайты, которые неудобно просматривать на экранах смартфонов и планшетов.

Как проверить, есть ли на вашем сайте фильтр Яндекса или Google

В первую очередь, обратите внимание на следующие признаки:

  • Существенное падение поискового трафика.
  • Резкое снижение позиций сайта в выдаче.
  • Выпадение отдельных страниц или всего ресурса в дополнительный индекс.
  • Выпадение сайта целиком или важных документов из индекса.
  • Индексирование новых документов с большими задержками.
  • Низкие позиции ресурса в выдаче по витальным вопросам.

Чтобы своевременно обнаружить санкции поисковых систем, используйте инструменты Search Console Google и Яндекс.Вебмастер, а именно, разделы «Меры, принятые вручную» и «Нарушения» соответственно.

Если же, при явном наличии проблем, в данных разделах будет сообщаться об отсутствии таковых, то придется производить более глубокую проверку.

Существуют следующие сервисы диагностики фильтров поисковых систем:

1) PR-CY.ru — универсальный сервис для анализа сайтов, который, кроме обилия полезной информации касательно оптимизации под поисковые системы, также помогает определить фильтр Яндекса.

2) CY-PR.com — сервис, выполняющий комплексный анализ, в том числе, и проверку сайта на санкции Яндекса и Google.

3) Website Penalty Indicator — сервис поможет в случае, если вы обнаружили резкое падение трафика из Google и потерю позиций по ключевым запросам. После анализа сайта сервис выдаст график изменений трафика из Google с наложением временных маркеров, соответствующих апдейтам Panda и Penguin.

Таким образом можно проследить, когда случались самые резкие падения позиций, выяснить, не совпадали ли они с апдейтами соответствующих алгоритмов и поискать причины среди производимых действий (публикация неуникальных материалов, покупка ссылок и т.д.).

Чтобы, продвигая сайт, избежать фильтров от поисковых систем, нужно проводить комплексную работу над сайтом: улучшать его и делать удобнее для пользователей.

Основные рекомендации:

1) Наполняйте свой сайт только уникальным контентом.

2) Не увлекайтесь чрезмерной оптимизацией текстов под ключевые запросы.

3) Избегайте резких изменений внешней ссылочной массы. В системе Wizard.Sape для этого есть опция «Контроль ссылочного взрыва».

4) Формируйте качественный ссылочный профиль сайта. Хорошим дополнением для классических арендных ссылок являются крауд-ссылки: обычно они размещаются без анкора и распознаются алгоритмами поисковых систем как естественные.

Рекомендуем статьи