Фильтры поисковиков: как обезопасить сайт

Фильтры поисковиков:
как обезопасить сайт

91 Андрей Батурин,
Андрей Батурин

Андрей Батурин

Санкции поисковых систем применяются иногда предсказуемо, иногда — как гром среди ясного неба. Раньше попадание под фильтр поисковика становилось для сайта наказанием, которое легко обнаруживалось. Оно было подобно вирусу и требовало быстрого реагирования: ресурс исчезал из выдачи или мгновенно терял позиции.

Сейчас действие фильтров не всегда так легко опознать. Веб-ресурс может постепенно снижаться в ранжировании, попадая под пессимизацию. Фильтры видоизменились, усовершенствовались, но забывать о них нельзя! Расскажем о них и о том, что делать с сайтом, чтобы обезопасить от немилости поисковиков.

Против чего боремся?

Мы помним из статьи о методах SEO, которые уже не работают, что были этапы, когда для продвижения использовались спамные ключевые тексты, закупка ссылочной массы. Есть черное SEO, которое со временем обрастает легендами, но не дает забыть о себе (кто-то же еще применяет дорвеи и клоакинги).

Фильтры в поисковых системах появлялись постепенно, в качестве реакции на манипулятивные способы продвижения сайтов.

  • «Пингвин» и «Минусинск» были призваны очистить выдачу от поклонников покупного линкбилдинга.
  • «Баден-Баден» и «Панда» — повысить качество текстового контента и снизить степень его заспамленности.
  • АГС (в Яндексе) и Panda направлены на борьбу с некачественными ресурсами, использующими черные методики, созданными специально для роботов, а не для реальных пользователей.

Поисковики сражаются и с накруткой поведенческих факторов, и с технически несовершенными веб-страницами. Вас отнесут к последней группе, если отмечается:

  • Низкая скорость загрузки;
  • Отсутствие адаптивности под мобильные устройства;
  • Низкое качество веб-ресурса с точки зрения дизайна и функционала;
  • Игнорирование требований по юзабилити;
  • Неуникальный, плохой контент.

Как меняются фильтры и почему это важно?

Сейчас в отношении фильтров сложилась такая ситуация: они уже не выступают отдельной частью или программой поисковика, а включаются в алгоритмы его работы. Поэтому самое важное для безопасности сайта — использовать проверенные, «белые» способы для продвижения, поскольку серые и черные в любом случае будут обнаружены.

Со временем изменилось и действие фильтра на ресурс. Если раньше падение или исключение выявлялось моментально, то теперь иногда приходится догадываться о применении санкций, анализируя множество факторов.

Действие фильтра может запускаться автоматически, алгоритмом, а может — вручную, после выявления несоответствия и оценки сайта асессорами (сотрудниками поисковиков).

Цели фильтров поисковиков

Как узнать о санкциях

Так, Гугл не уведомляет владельца сайта о том, что он попал под фильтр. Выявить эту проблему можно по следующим признакам:

  • Снижение посещаемости;
  • Потеря позиций в выдаче;
  • Отсутствие сайта в результатах выдачи по точным, низкочастотным запросам (включающим наименование компании и т. п.);
  • Исключение из выдачи отдельных страниц или всего сайта.

Это лишь очевидные симптомы. Но нужно учитывать все отрицательные изменения! Обнаружить такой негатив помогут средства веб-аналитики: интернет-маркетологи и SEO-специалисты должны анализировать их данные постоянно. Надо взаимодействовать с Вебмастером Яндекса и Search Console в Гугл.

Как не попасть под фильтры поисковых систем

Еще несколько лет назад освободиться от наказания было проще: если владелец сайта знал (или догадывался), что к санкциям его привели «плохие» ссылки, то он избавлялся от них. И сегодня справиться с проблемой бывает несложно: когда вы знаете, что получили «Баден-Баден» за переоптимизированные тексты, то тут же беретесь их переписывать. Или обнаружилось вирусное ПО: ясно же, что ресурс надо чистить и лечить.

Это явные случаи, но ситуация сложнее, когда недостатки сайта носят комплексный характер и затрагивают:

  • Некорректную стратегию SEO-продвижения;
  • Неверно разработанный маркетинг;
  • Технические качества сайта;
  • Низкосортный контент (дублированный, ворованный, со средней или низкой уникальностью).

Фильтры и алгоритмы не пытаются создать препятствия для продвижения, их цель — очистить результаты по запросам пользователей, повысить качество работы поиска. Поэтому нельзя строить стратегию продвижения на хитрых манипуляциях, которые помогут обойти систему.

Фильтры поисковой системы Яндекс

По итогам 2017 года доля поиска Яндекса в Рунете составила 56,1%, правда, в следующем году показатель снизился. Эта система летом 2018 года впервые обошла Google по доле поисковых запросов на устройствах с ОС Android! Поэтому владельцам сайтов необходимо знать и понимать, как работают фильтры Яндекса, как не попасть в их немилость. И что делать, если это все-таки произошло.

Санкции поисковика часто воспринимаются собственниками интернет-ресурсов как своего рода болезнь. С этой точки зрения и рассмотрим действующие ныне алгоритмы, с учетом признаков, методов избавления и профилактических мер.

Минусинск

Это фильтр борьбы Яндекса с недобросовестным линкбилдингом, внедренный весной 2015 года.

Симптомы

  1. Потеря наработанных в выдаче позиций;
  2. Сайт под фильтром Яндеса «Минусинск» не выходит в ТОП даже по имени домена или витальным запросам.

Лечение

Избавляйтесь от серых, черных, чересчур искусственных ссылок. При очистке входящих линков не забывайте об исходящих.

Профилактика

Современные реалии таковы, что от покупных ссылок лучше отказаться. Внедряйте интернет-маркетинг в его самых разношерстных проявлениях! Создавайте хороший контент, рассказывайте о нем, и люди сами потянутся.

АГС

Так называют самый известный фильтр поисковой системы Yandex. Он отсеивает сайты, которые попались на использовании «черных» методов оптимизации. В целом, его действие направлено на очищение выдачи от некачественных ресурсов с плохой репутацией.

Методы защиты

АГС официально подтвержден, что случается не со всеми алгоритмами. В разное время действовали разные версии фильтра, их обозначали цифрами, но с 2015 применяется одно общее буквенное наименование.

Кто в зоне поражения АГС?

Под фильтр рискуют попасть те сайты, которые:

  • Являются молодыми, но не в меру активными;
  • Имеют малое количество уникальных посетителей;
  • «Напичканы» исходящими ссылками при малом весе входящих;
  • Содержат неуникальный, переводной, низкокачественный контент;
  • Не проработаны по функционалу и юзабилити;
  • Имеют плохой дизайн;
  • Используют техники манипулирования выдачей (cloaking, дублированный и скрытый контент, навязчивую рекламу).

Признаки АГС

  1. Сайт редко попадает под фильтр полностью. Раньше в выдаче оставалась главная страница, но исчезали остальные. Теперь санкции действуют так, что страницы сильно и резко теряют позиции, большое их число выпадает из индекса;
  2. Количество посетителей из поиска снижается;
  3. Если появляются новые странички, то они либо совсем не индексируются, либо делают это плохо.

Лечение

  • Если на сайте использовались методики черного SEO, от них необходимо избавиться;
  • Надо проработать дизайн, функциональность, свойства юзабилити;
  • Если проблема заключалась в обилии исходящих ссылок, их нужно удалить;
  • Переписать или хотя бы закрыть от индексации «плохой» контент;
  • Если использовалась навязчивая реклама, ее придется удалить, заменить на корректную;
  • Если отмечались все проблемы комплексно, возможно, есть смысл заказать новый сайт. В ряде случаев это окажется дешевле, чем бороться с многочисленными недостатками.

Когда недостатки устранены, то пора написать в поддержку Яндекса с ходатайством о снятии фильтра. АСГ известен тем, что «исцеление» от него порой занимает много месяцев.

Профилактика

Чтобы не рисковать попасть под АСГ, надо развивать, холить и лелеять свой ресурс. То есть планомерно поддерживать и заботиться о его качестве, технических, эстетических характеристиках, контенте. И не использовать черные и серые схемы.

Фильтр для сайтов-аффилиатов

Несколько сайтов общей тематики, принадлежащие одному собственнику, признаются аффилированными.

сайты-аффилиаты, похожие друг на друга, как близнецы, попадают под фильтр поисковика

Этот фильтр предназначен для пресечения возможности манипулировать выдачей через аффилиаты. Теоретически такие сайты могут быть настолько хороши, что выйдут в ТОП, тогда другие независимые ресурсы не смогут пробиться на законно заслуженные первые строчки. Чтобы не допустить подобной ситуации, Яндекс разработал специальный фильтр, вычисляющий и нейтрализующий аффилиаты.

Симптомы

Если у собственника 2, 3, 12 сайтов на одну тематику, в выдаче окажется только один из них, но какой именно, предположить трудно.

Лечение и профилактика

Стоит создавать и продвигать сайты сообразно их тематике. Одному собственнику не запрещено создавать сколько угодно ресурсов, но если фактически они дублируют друг друга, поисковик это обнаружит, а хозяин узнает по результатам выдачи.

«Баден-Баден»

Он с весны 2017 года борется с заспамленными сайтами. Переоптимизация, переспам — называть это можно как угодно, но «тексты для роботов», состоящие из наборов ключей, однозначно приведут к такой санкции.

Признаки

  1. Когда под этот фильтр Яндекса попадает сайт целиком, он пропадает из выдачи, а в разделе Вебмастера «Диагностика» («Безопасность и нарушения) появляется соответствующее уведомление.
  2. Если санкции распространяются на некоторые страницы, сообщения от поисковика не приходит, но на них падает посещаемость.

Лечение

  • Избавляйтесь от переспамленных текстов;
  • Заменяйте их «человеческими»;
  • Временно можно закрыть страницы с SEO-текстами тегом noindex, но надо понимать, что с контентом все равно придется хорошенько поработать;
  • Только после размещения качественного контента стоит направить в поддержку просьбу об отмене санкций.

Профилактика

  • Изменить надо саму концепцию контента, создавая и размещая его именно для пользователей. На первый план выходит полезность, привлекательность и уникальность;
  • Совсем отказываться от ключей тоже нельзя, но использование их должно стать второстепенным;
  • Тексты обязательно надо проверять на переспам. К примеру, для интернет-магазинов процент заспамленности в сервисе Text.ru должен находиться в переделах 30%;
  • Крайне аккуратно надо пользоваться тегами h, strong, b, и не употреблять последние для выделения ключевых фраз.

Санкции за накрутку поведенческих факторов

Как мы помним, Яндекс в свое время полностью отказался от учета в ранжировании ссылочной массы. Фокус сместился на поведенческие факторы, то есть действия пользователей на ресурсе. К таковым относятся глубина просмотров, время, проведенное на страницах, клики по размещенным ссылкам, переходы и тому подобное. Этими факторами сеошники тоже пытаются манипулировать, поэтому поисковик выдал свою реакцию в виде фильтра.

За преступление полагается наказание - санкции поисковиков

Проявления

  1. Поддержка высылает сообщение об обнаруженном нарушении.
  2. Трафик стремительно падает.
  3. Сайт исключается из выдачи полностью или значительно теряет позиции.
  4. Новые страницы индексируются в замедленном темпе.

Лечение

Рецепт только один: нужно полностью отказаться от любых махинаций с выдачей и накруток ПФ. Привести сайт в порядок, а потом направить соответствующий запрос в службу поддержки Яндекса.

Профилактика

Необходимо развивать ресурс таким образом, чтобы он стал интересен пользователям. Тогда поведенческие факторы улучшатся сами собой.

Наказание за отсутствие мобилопригодности и материалы 18+

Это разумеется, разные санкции, а точнее, составляющие поисковых алгоритмов. Проявления у них общие — пессимизация в выдаче. Общие и принципы избавления — устранение причин.

«Взрослый» контент на сайте может привести к тому, что система ограничит ресурс в трафике по запросам, не относящимся к обычным, «вневозрастным» темам. Поэтому, если это не ваша специфическая сфера бизнеса, не рискуйте размещать материалы любого формата, которые роботы или асессоры могут воспринять предназначенными для взрослых.

Подход Mobile friendly реализован и в Яндексе: если сайт не адаптирован под мобильный поиск, то однозначно проиграет тем ресурсам, который потрудились подстроиться под такой трафик. Тут хорошо работает адаптивный дизайн. Мобильные версии учитываются, только когда редирект настроен корректно. Подробнее читайте в нашей статье на эту тему.

Фильтры поисковой системы Google

Лидер всемирного цифрового поиска неутомимо борется с чистотой выдачи. Его фильтры существуют в составе сложных поисковых алгоритмов. Разберемся, за что и как наказывает Google, как приручить «Панду» и подружиться с «Пингвином», кто это?

Panda

Впервые «Панда» была запущена в феврале 2011 года. Задачей алгоритма стал контроль качества сайтов, участвующих в ранжировании.

Как же поиск оценивает ресурсы? Учитываются следующие аспекты:

  • Качество размещенного на сайте контента: его уникальность, количество, полезность, новизна, грамотность. Там, где машинам не хватает квалификации, за дело берутся асессоры.
  • Поведенческие факторы. Система учитывает поведение пользователя на ресурсе, его удовлетворенность и отклик на контент.
  • Отсутствие дублированных страниц — плюс в понимании Гугла. Если фильтр выявил дубликаты (несколько страниц, оптимизированных по одному запросу; повторение одинакового контента), то стоит ждать пессимизации. Те же последствия возникнут при использовании копипасты.
  • Качественная проработка функционала ресурса, отсутствие проблем с юзабилити и скоростью загрузки страниц, привлекательный дизайн — все это засчитывается алгоритмом в пользу сайта. Если же владелец не позаботился о комфорте посетителей, его ждет заслуженная кара. Или если злоупотреблял навязчивой, закрывающей контент рекламой.
  • Умеренная оптимизация. Ранее в разговоре о Яндексе мы упоминали о Баден-Бадене. Так вот, аналог подобного фильтра имеется и в Google. Только он не является отдельным инструментом. Так что за переспамленные тексты есть риск впасть в немилость Панды. Поэтому нельзя напичкивать ключами тайтлы, description, alt, выделять их в текстах стронгами. Употребление ключевых фраз должно быть естественным, а не в духе SEO десятилетней давности.

Фильтр Гугла «Панда» наказывает не полной изоляцией ресурса и выпадением из выдачи, а снижением позиций сайтов с «нехорошим» контентом.

Чтобы справиться с подобным негативом, необходимо совершенствовать ресурс. Какой-то одной меры, к примеру, замены текстов, будет явно недостаточно. Повышать качество сайта придется комплексно, с учетом всех названных факторов.

Penguin

Пингвина выпустили в свет в апреле 2012 года с четко обозначенной целью — бороться с некачественными, манипулятивными ссылками. Что скрывается за черным или серым линкбилдингом?

Это практически все известные способы искусственного увеличения веса ссылок:

  • Дорвеи, клоакинг;
  • Закупка и обмен массой;
  • Ссылки на нерелевантных или аффилированных сайтах;
  • Размещение спама на форумах и других площадках.

Фильтр поисковой системы Google Пингвин

«Пингвин» — не тот фильтр, который удаляет сайты из выдачи. Обнаружив некачественную ссылку, он просто не учитывает ее при ранжировании страницы. Поэтому роста в выдаче, на который рассчитывал владелец или сеошник-линкбилдер, не происходит.

Чтобы не попасть под действие фильтра Google Penguin, надо всего-то:

  • Не вступать в порочащие сайт связи.
  • Ее использовать серые схемы, покупной линкбилдинг.
  • Если некачественная ссылочная масса все же имеется, ее необходимо удалить.

Хотя лучше изначально разрабатывать стратегию продвижения так, чтобы сайт заработал хорошие и естественные ссылки благодаря своим характеристикам и качественному контенту.

Колибри

Настоящая птичка в природе уникальна тем, что может летать задом наперед. А Колибри Google, выпорхнувшая на волю в сентябре 2013 года, славится своим умением распознавать неочевидные пользовательские запросы. К примеру, забиваете вы в поиске фразу «Фильм, где человек выращивал картошку на другой планете», а Гугл в ответ — ссылку на «Марсианина». Ее аналогом в Яндексе выступает Палех, но он появился только в 2016.

Фильтром эту часть алгоритма назвать можно с большой натяжкой. Но о ней мы вспомнили, поскольку Колибри тоже влияет на ранжирование. В плюс веб-сайту засчитывается такой контент, который максимально раскрывает информацию по запросу пользователя.

— Фильтры поисковиков надо знать в лицо, но нельзя воспринимать их врагами. Ведь они помогают сделать выдачу чище! Бывает, что хорошие сайты получают санкции из-за досадных ошибок, которые совершают владельцы. Но и выйти из бана в таком случае будет проще.

— Недобросовестность наказывается всегда, поэтому работайте честно и постоянно совершенствуйте ресурс. Подружиться с алгоритмами поисковых систем не сложно, играя по их правилам, без попыток хитрить и манипулировать. Надо всего лишь наращивать естественную ссылочную массу, создавать классный и полезный контент, заботиться о людях, которые приходят на ваш сайт.

Понравилась статья? Сохраните у себя в соцсетях и поделитесь с другими!

Обсудить

Другие статьи по тегам

сайты продвижение сайтов поисковые системы

на эту тему

Настройка счетчиков веб-аналитики
Юзабилити сайта: инструкция по диагностике
Функционал сайта: польза и излишки
Mobile first: тонкости разработки
Как улучшить продающие качества сайта
Эффективные сниппеты для сайта в Google и Яндекс
10 досадных ошибок при создании интернет-магазина
Загадочный ИКС — как повысить показатель качества сайта