Disavow links или как определить под каким фильтром Гугла (Панда или Пингвин) находится сайт


Содержание материала:

Фильтры Гугла

С выходом Минусинска фильтры Яндекса стали еще больше дублировать фильтры западной ПС Google, при этом последние куда меньше изучены сеошниками Рунета, чем первые. В этой статье я постарался охватить те санкции Гугла, которые я сам знаю. Возможно, есть и другие. Сразу подмечу — по тем сведениям, что имеются, можно сделать вывод, что некоторые фильтры Google дублируют функции друг друга. То есть, допустим, за неуникальный контент может покарать как Панда, так и Google Duplicate Content. Поэтому я такие «дубли» в отдельные пункты не выделял (вот что значит борьба с дублями в Google, старик).

Вот тут Рэнд Фишкин рассказывает, как под эти фильтры не попасть:

Виды санкций Google

Первый тип классификации — это разделение на фильтры за косяки на самом сайте и на фильтры за косяки при внешнем продвижении. По этому типу мы и пройдемся в статье подробнее.

Но помимо этого есть еще деление на ручные и автоматические санкции. Различие между ними в том, что автоматические санкции накладываются на вас машиной, а ручные — модератором. Первые снять гораздо легче, так как они и снимаются в основном автоматом. О вторых вас оповестит Google вебмастер, создав сообщение во вкладке «Меры, принятые вручную». А вот об автоматических санкциях вас информировать никто не будет.

Фильтры за внутренние нарушения

Под внутренними нарушениями подразумевается недобросовестная работа над созданием контента, переоптимизация текста, отсутствие внутренней оптимизации ресурса в целом и так далее.

Панда

Фильтр призван находить страницы сайтов с неуникальным заспамленным контентом, который, вероятней всего, был создан для поискового робота. С помощью Google Analytics можно отследить уровень органического трафика с Гугла, который значительно снизится, если сайт попадет под фильтр. Естественно, последствия Панды выражаются в существенном проседании позиций в выдаче.

Вот отличное видео от Виктора Карпенко о Панде:

Союзниками Панды являются более узкоспециальные фильтры, такие как Duplicate Content (дублирование контента) и Omitted Results (схожий контент), направленные на борьбу с похожим, повторяющимся контентом. В целом, Панда является самым распространенным фильтром, охватывающим большое количество внутренних факторов ресурсов.

Песочница

Песочница, или Sandbox, предназначена для ограничения молодых сайтов, то есть фильтр накладывается не за нарушение, а за отсутствие траста. Если сайту меньше года, то шансы занять места в топе по запросам крайне низки. Косвенным результатом работы Песочницы могут являться безуспешные попытки продвижения по ВЧ и СЧ запросам, когда не удается увидеть значимые сдвиги в поисковой выдаче Гугла.

Немного похож на песочницу фильтр Domain Name Age, проявляющийся в том, что сайты с доменом возрастом до 1 года могут плохо индексироваться.

Сопли

Фильтр «Supplemental Results», в простонародье «Сопли», предназначен для нахождения страниц сайта, которые содержат похожий контент. В случае обнаружения подобных документов, фильтр перемещает их в дополнительные (по умолчанию скрытые) результаты поисковой выдачи Гугла. Обычно, под действие фильтра попадают страницы-дубли сайта.

Broken Link

Если на сайте находится слишком много битых ссылок, Гугл может наложить на ресурс соответствующий фильтр. В случае превышения допустимого предела по битым ссылкам, ресурс может потерять траст, а за этим последует и снижение в поисковой выдаче.

Too many pages at once

Этот фильтр накладывается на сайты, на которых слишком быстро размещают новые страницы. Такой случай вызывает подозрение у Гугла в автоматическом наполнении контента. Обычно, за автоматическое создание страниц отвечает специальная программа по созданию ГС, например, тех же дорвеев.

Page Load Time

Сайты с долгой загрузкой содержимого подвергаются наложению этого фильтра. Page Load Time Filter призывает оптимизаторов уменьшать скорость загрузки ресурса.

Baby Panda

Панда-малышка занимается охотой на сайты «Made for AdSense» (MFA). Такие ресурсы созданы специально для размещения рекламы, которые, в целом, не несут никакого полезного контента для пользователей. Как правило, фильтр применяется для тех сайтов, в которых верхние части страниц занимает реклама. Если на вашем ресурсе страницы содержат обилие рекламы в верхней части, и замечено снижение позиций в Гугле, значит фильтр был наложен.

EDM-алгоритм

Всегда найдутся желающие представить домен в виде ключевого запроса. Для таких умников и предназначен EDM-алгоритм, который позаботится о снижении позиций в выдаче. Не создавайте SEO-домены, ибо такая оптимизация может выйти вам боком.

Florida

Переоптимизация текста также грозит проблемами с ранжированием в ПС Гугл. Этот фильтр является одним из первых фильтров Гугла, который борется с частым употреблением ключевых запросов в тексте. Естественно, что страницы с переоптимизированным контентом полетят вниз по позициям в поисковой выдаче, и в целом ухудшат трастовость сайта.

У меня нет точной информации, на запрос или на документ накладывается данный фильтр (у Камской вообще написано нечто непонятное про «резкое падение сайта по всем запросам в выдаче»), но общий принцип похож на Переоптимизацию от Яндекса — из-за употребления слишком большого количества ключей позиции по запросам занижаются.

Link Farming

Под фильтр рано или поздно попадают все сайты, которые созданы с целью размещения ссылок. Доноры-линкопомойки становятся бесполезными, так как благодаря фильтру исходящие ссылки вовсе перестают учитываться.

Анти WAP-клик

Был внедрен примерно 12 июня 2015 года, о чем писал MadFox .

Сайты, сливавшие мобильных юзеров через редирект — ушли в бан, все страницы выпилены из индекса. Данный фильтр коснулся только тех сайтов, которые сливали вап-клик редиректом. Тех сайтов, кто не сливал вап-клик редиректом, данный фильтр почти не коснулся.

Некоторые также полагают, что есть фильтр за появление огромного количества контента за небольшой промежуток времени.

Фильтры за внешние нарушения

При поисковом продвижении сайта часто возникают проблемы с качеством и количеством размещенных ссылок, анкорными листами, трастом доноров, а также запрещенными приемами, связанными с редиректом.

Пингвин

Фильтр «Пингвин» нацелен на борьбу с некачественными ссылками, которые размещают для увеличения PageRank и продвижения в поисковой выдаче. Пингвин весьма заметно действует с 2012 года, значительно понижая сайты-акцепторы недобросовестных вебмастеров по ключевым запросам в выдаче Гугла. При автоматическом Пингвине некоторые разделы сайта могут сохранять трафик, и запросы остаются в топе — трафик и запросы падают лишь с части страниц. При ручном Пингвине весь сайт попадает под санкции. Вот инструкция по снятию Пингвина средствами FastTrust . Обновление и факт применения или снятия санкций во многих случаях происходит автоматически.

Google -30

Фильтр «минус 30» накладывается на ресурс в случае подозрения в запрещенных махинациях, которые любят использовать «черные» сеошники, то есть создатели дорвеев и прочих ГС с целью заработка легких денег на быстротечных ресурсах. Под махинациями подразумеваются осуществление клоакинга и редиректов, которые видят пользователи, но не видят ПС. Со временем роботы обнаруживают нечестную игру и понижают ресурс на тридцать позиций в выдаче.

Если убрать запрещенные скрипты, через некоторое время фильтр снимется и можно будет вздохнуть с облегчением. Что касается дорвеев, то скорей всего такие сайты и вовсе вылетят из индекса, так как зачастую клоака является неотъемлемой частью схемы слива трафика.

Bombing

Когда на сайт ведет большое количество внешних ссылок с одинаковыми анкорами, в силу вступает фильтр Bombing, который существенно снижает вес ссылок.

Co-Citation

Этот фильтр накладывается за присутствие ссылок на сайте-доноре, который распространяет материалы запрещенных тематик.

To Many Links at Once

Наложение фильтра грозит ресурсам, на которых появляется резкий прирост внешних ссылок. Фильтр обычно косит молодые сайты, оптимизаторы которых пытаются закупить большое количество ссылок за короткий отрезок времени.

Что еще не любит Гугл

Все нижеперечисленное может создать проблемы в продвижении и привести к проблемам в продвижении:

  • Ссылки с иноязычных сайтов;
  • Использование тега h1 на странице чаще, чем 1 раз;
  • Отсутствие карты сайта;
  • Скрытый контент;
  • Спам в комментариях;
  • Нерабочая страница 404;
  • Низкое качество мобильной версии;
  • Домен с плохой историей.

Как подружиться с алгоритмом Google Panda?

Известно, что алгоритм Google Panda представляет собой совокупность обновлений систем поиска, нацеленных на увеличение релевантности страниц в выдаче. Для этого берется во внимание около ста различных факторов. В результате анализа сайты с низким качеством контента и выраженной переоптимизацией понижаются в выдаче.

Особое внимание алгоритм «Панда» уделяет внутренним факторам, в первую очередь текстовому контенту. Рассматривается его объем, уникальность, степень заспамленности ключами и прочее. Тем самым Panda дополняет другой алгоритм Google — Penguin, отвечающий за внешние факторы ранжирования сайта.

Также во внимание берутся процент отказов, логичность структуры сайта и правильность перелинковки.

Близкого знакомства с «Пандой», конечно, лучше сторониться. Но если сайт все же попал под фильтр, важно своевременно узнать об этом. Достоверно определить этот факт невозможно, так как информация о дате выхода обновлений Google «Панды» отсутствует. Но косвенным свидетельством попадания под фильтр будет снижение числа посетителей из ПС Гугл. Стоит отметить, что фильтр накладывается на весь сайт, поэтому, выполняя работы по выводу, необходимо уделять внимание ресурсу в целом.

Как определить, что сайт под фильтром Google «Панда»?

Воспользуйтесь сервисом проверки уникальности текстов — например, WebSite Auditor, Advego Plagiatus или любым другим Вам доступным, но при этом корректным. Необходимо определить уникальность всех документов на сайте. Если большая часть контента (от 20% и более) скопирована из других источников, рекомендуем принять меры по уникализации проблемных участков.

  1. Смотрим на содержательность контента. Пользователи должны находить на странице необходимый ответ на свой вопрос. Проверку на фильтр Гугла по этому параметру также должны пройти все страницы.
    • Необходимо наполнять страницы сайта максимально информативным и развернутым контентом: текстовым, графическим, медийным. «Панда» оценивает не только текстовую релевантность, но и общее наполнение страницы.
    • Следует удалить повторяющийся контент, который не терпит алгоритм Google Panda.
  2. Нужно проверить тексты на переизбыток ключевых слов. «Панда» накладывается за переспамленность.
  3. При подготовке нового качественного контента для сайта принимайте во внимание, насколько вовлечены пользователи, на основании статистики систем аналитики Гугла.
  4. Необходимо выстаивать правильную структуру сайта с логичной перелинковкой внутренних страниц.

Как перестать быть интересным алгоритму Google Panda?

В первую очередь необходимо сделать полный аудит сайта и определить, что могло вызвать наложение фильтра. Далее можно приступать к устранению недочетов.

  1. Уделите особое внимание контенту. Объем текста должен превышать 400 символов. Чтобы избежать попадания под действие фильтра Гугла «Панда», не менее важно отредактировать текст: он должен быть содержательным, удобочитаемым и уникальным. Дубли страниц необходимо удалить. Следует также подчистить от лишних ключей сам текст, а также заголовки и метатеги. Важно, чтобы сайт был в должной мере наполнен информацией, полезной для посетителей (например, новостями, статьями, разделами «Вопрос – ответ» и прочим).
  2. Постройте правильную структуру сайта. Это ключевое требование для правильной перелинковки страниц. Также важно исправить все технические ошибки сайта.
  3. Избавьтесь от нерелевантной рекламы. Если на странице имеются агрессивные всплывающие окна, поп- и кликандеры, пусть даже и по теме, не сомневайтесь, что интерес со стороны Google «Панды» — лишь вопрос времени. Решите сами, стоит ли потенциальная выгода от такой рекламы порождаемых ею рисков.
  4. Определите работоспособность ссылок (как внешних, так и внутренних). Для этого отлично подойдет плагин Broken Link Cheker или сервис Netpeak Spider . Не помешает добавить и дополнительную навигацию.

Главное при этом — помнить, что цель алгоритма «Панда» заключается в блокировке плохого контента. Google Panda любит большое количество уникального контента. Чем его больше, тем выше вероятность, что фильтр снимут. Нужно только периодически индексировать страницы.

Это основные рекомендации, которые позволят избежать санкций со стороны Гугла. Их можно использовать в качестве базовых еще на этапе создания сайта, его наполнения и продвижения. Чем более содержательным будет веб-ресурс, тем меньше ему угрожает этот алгоритм. Соответственно, позиции в выдаче будут предельно устойчивыми.

Если сайт попал под фильтр, то до следующего апдейта он уже не сможет освободиться от влияния Google Panda. Именно поэтому лучше предупредить проблемы, чем потом их решать.

Полное руководство по обновлённому алгоритму Penguin от Google

В 2012 году Google официально запустил « алгоритм борьбы с веб-спамом », направленный против спам-ссылок, а также практик манипулирования ссылками.

Этот алгоритм позже стал официально известен как алгоритм Гугл Пингвин после твита Мэта Каттса ( Matt Cutts ), который впоследствии стал главой подразделения Google по борьбе с веб-спамом. Несмотря на то, что в Google официально назвали алгоритм Penguin , никаких официальных комментариев по поводу того, откуда пошло это название, не было.

Название алгоритму Panda дал из инженеров, работавших над ним. Одна из теорий возникновения имени Penguin состоит в том, что это отсылка к Пингвину – герою комиксов DC про Бэтмена .

Перед внедрением Penguin количество ссылок играло значительную роль при оценке веб-страниц поисковыми роботами Google .

Это означало, что при ранжировании сайтов по этим оценкам в результатах поиска некоторые низкокачественные сайты и куски контента появлялись на более высоких позициях.

Зачем потребовался алгоритм Penguin

Война Google с низкокачественными результатами поиска началась с алгоритма Panda , а алгоритм Penguin стал расширением и дополнением арсенала.

Penguin стал ответом Google на расширяющиеся практики манипуляции результатами поиска ( и ранжированием ) через спам-ссылки.

Алгоритм Penguin обрабатывает только входящие на сайт ссылки. Google анализирует ссылки, ведущие на сайт, и не воспринимает исходящую ссылочную массу.

Первоначальный запуск и влияние

При первом запуске в апреле 2012 года фильтр Пингвин Гугл повлиял более чем на 3% результатов поиска, согласно собственным оценкам Google .

Penguin 2.0 , четвёртое обновление ( включая первоначальную версию ) алгоритма, был выпущен в мае 2013 года и затронул примерно 2,3% всех поисковых запросов.

Ключевые изменения и обновления алгоритма Penguin

Всего было несколько изменений и обновлений алгоритма Penguin , начиная с момента его запуска в 2012 году.

Penguin 1.1: 26 марта 2012 года

Это было не изменение алгоритма, а первое обновление данных внутри него. Сайты, изначально затронутые алгоритмом Penguin , но после избавившиеся от низкокачественных ссылок, получили некоторое улучшение своих позиций. В то же время другие сайты, не затронутые алгоритмом Penguin при его первом запуске, заметили определенное воздействие.

Penguin 1.2: 5 октября 2012 года

Это было очередное обновление данных. Оно затронуло запросы на английском языке, а также международные запросы.

Penguin 2.0: 22 мая 2013 года

Более продвинутая ( с технической точки зрения ) версия алгоритма, которая изменила степень его влияния на результаты поиска. Penguin 2.0 затронул примерно 2,3% англоязычных запросов, и примерно такую же долю запросов на других языках.

Также это было первое обновление алгоритма Гугл Пингвин , которое заглядывало дальше главной страницы и страниц верхнего уровня в поисках доказательств наличия спам-ссылок.

Penguin 2.1: 4 октября 2013 года

Единственное обновление алгоритма Penguin 2.0 ( версия 2.1 ) вышло 4 октября того же года. Оно затронуло около 1% поисковых запросов.

Несмотря на то, что никаких официальных объяснений обновления от Google не было, статистика свидетельствует о том, что апдейт также увеличил глубину просмотра страниц и ввел дополнительный анализ наличия спам-ссылок.

Penguin 3.0: 17 октября 2014 года

Стало очередным обновлением данных, позволившим многим попавшим под санкции сайтам восстановить свои позиции, а другим, злоупотреблявшим спам-ссылками, но скрывшимся от предыдущих версий Penguin , почувствовать на себе его влияние.

Сотрудник Google Пьер Фар ( Pierre Far ) подтвердил это и отметил, что обновлению потребуется « несколько недель » для полного развёртывания. И что апдейт затронул менее 1% англоязычных поисковых запросов.

Penguin 4.0: 23 сентября 2020 года

Почти через два года после обновления 3.0 было выпущено последнее изменение алгоритма. В результате Penguin стал частью базового алгоритма поисковой системы Google .

Теперь, работая одновременно с базовым алгоритмом, Гугл Пингвин 4 оценивает сайты и ссылки в режиме реального времени. Это означает, что можно видеть относительно быстрое влияние изменений внешних ссылок на позиции вашего сайта в поисковой выдаче Google .

Обновлённый алгоритм Penguin также не был направлен строго на наложение санкций, он девальвировал значение спам-ссылок. Это стало противоположностью предыдущим версиям Penguin , когда за плохие ссылки следовало наказание. Но исследования показывают, что алгоритмические санкции, основанные на внешних ссылках, используются до сих пор.

Алгоритмические понижения в Penguin

Вскоре после запуска алгоритма Penguin , вебмастера, которые практиковали манипулирование ссылками, стали замечать снижение объема поискового трафика и позиций в поиске.

Не все понижения, спровоцированные алгоритмом Penguin , касались целых сайтов. Некоторые были частичными и затрагивали только определённые группы ключевых слов, которые были активно забиты спам-ссылками или « излишне оптимизированы ».

Сайт, попавший под санкции Penguin , которому потребовалось 17 месяцев, чтобы восстановить свои позиции в поисковой выдаче Google .

Влияние Penguin также распространяться между доменами. Поэтому смена домена и перенаправление со старого на новый может сулить ещё больше проблем.

Исследования показывают, что использование перенаправлений 301 или 302 не отменяет влияния алгоритма Penguin . На форуме вебмастеров Google Джон Мюллер ( John Mueller ) подтвердил, что использование перенаправлений meta refresh с одного домена на другой также может привести к санкциям.

Восстановление от воздействия алгоритма Penguin

Утилита Disavow Links Tool была полезной для специалистов SEO , и это не изменилось даже теперь, когда алгоритм Пингвин Гугл функционирует как часть базового алгоритма Google .

Google рекомендует использование утилиты только как крайней меры при борьбе со спам-ссылками, так как удалить ссылку намного проще и быстрее, чем отправить запрос на повторное рассмотрение.

Что включать в файл дезавуирования

Файл Disavow содержит ссылки, которые должен игнорировать Google . Благодаря чему некачественные ссылки не будут снижать позиции сайта в результате работы алгоритма Penguin . Но это также означает, что, если вы ошибочно включили высококачественные ссылки в ваш файл дезавуирования, то они больше не помогут сайту подняться на более высокие позиции.

Не нужно включать никаких комментариев в Disavow , кроме случаев, когда они нужны вам самим.

Google не читает пояснений, которые вы делаете в файле, так как он обрабатывается автоматически. Некоторым удобнее добавлять пояснения для последующего использования. Например, дату, когда группа ссылок была добавлена в файл или комментарии о попытках связаться с вебмастером сайта, чтобы убрать ссылку.

После того, как вы загрузите файл Disavow , Google отправит вам подтверждение. Но, несмотря на то, что Google обработает его немедленно, он не дезавуирует ссылки в тот же момент. Поэтому вы не сможете сразу же восстановить позиции вашего сайта в поисковой выдаче.

Также не существует способа определить, какие ссылки были дезавуированы, а какие нет, так как Google всё равно включит и те, и другие в отчёт о внешних ссылках, доступный в Google Search Console .

Если вы ранее загружали Disavow и отправляли его в Google , он заменится новым, а не добавится к старому. Поэтому важно убедиться в том, что вы включили в новый файл старые ссылки. Вы всегда можете скачать копию текущего файла в своем аккаунте Google Search Console .

Отключение отдельных ссылок или доменов целиком

Для вывода сайта из под Гугл Пингвин рекомендуется дезавуировать ссылки на уровне домена вместо отключения отдельных ссылок.

Благодаря чему поисковому роботу Google потребуется посетить всего одну страницу на сайте, чтобы дезавуировать ссылки, ведущие с него.

Отключение ссылок на уровне домена также означает, что вам не нужно беспокоиться, индексируется ли ссылка с www или без.

Обнаружение ваших внешних ссылок

Если подозреваете, что на ваш сайт негативно повлиял алгоритм Penguin , нужно провести аудит внешних ссылок и дезавуировать низкокачественные или спам-ссылки.

Google Search Console позволяет владельцам сайтов получить список внешних ссылок. Но необходимо обратить внимание на то, что Disavow включает в себя ссылки, которые помечены как « nofollow ». Если ссылка помечена атрибутом nofollow , она не окажет влияния на ваш сайт. Но необходимо, чтобы сайт, разместивший ссылку на ваш ресурс, может убрать атрибут « nofollow » в любой момент без какого-либо предупреждения.

Также существует много сторонних инструментов, которые показывают ссылки, ведущие на сайт. Но из-за того, что некоторые вебмастера защищают сайт от обхода сторонними ботами, использование таких инструментов может показать не все входящие ссылки. Кроме этого подобная блокировка может быть использована некоторыми ресурсами, чтобы скрыть низкокачественные ссылки от обнаружения.

Мониторинг внешних ссылок – необходимая задача, чтобы защититься от атаки по принципу «негативного SEO ». Их суть заключается в том, что конкурент покупает спам-ссылки на ваш сайт.

Многие используют негативное SEO как оправдание, когда их сайт попадает под санкции от Google за низкокачественные ссылки. Но Google утверждает, что после обновления Пингвина Гугл поисковик хорошо распознает подобные атаки.

Опрос, проведённый Search Engine Journal в сентябре 2020 года, показал, что 38% SEO-специалистов никогда не дезавуировали внешние ссылки . Просмотр внешних ссылок и тщательное исследование домена каждой внешней ссылки — это нелёгкая задача.

Запросы на удаление ссылок

Google рекомендует сначала попытаться обратиться к администратору сайта, на котором размещена плохая внешняя ссылка с запросом на удаление ссылки, прежде чем её дезавуировать.

Некоторые владельцы сайтов требуют определенной оплаты за удаление ссылки. Google рекомендует не платить за это. Просто включите плохую внешнюю ссылку в ваш файл дезавуирования и переходите к удалению следующей ссылки.

Несмотря на то, что подобные запросы являются эффективным способом восстановить позиции сайта после применения санкций за внешние ссылки, они не всегда обязательны. Алгоритм Гугл Пингвин рассматривает портфель внешних ссылок целиком, то есть как соотношение количества высококачественных, естественных ссылок и спам-ссылок.

Некоторые даже что включают в соглашение об использовании сайта « условия » размещения внешних ссылок, ведущих на их ресурс:

Мы поддерживаем только « ответственное » размещение внешних ссылок, ведущих на наши веб-страницы. Это означает, что:

  • Если мы попросим удалить или изменить ссылку на наши сайты, вы сделаете это незамедлительно.
  • Вы обязаны убедиться, что использование ссылок не навредит нашей репутации и не повлечёт за собой получение коммерческих выгод.
  • Нельзя размещать более 10 ссылок на наши сайты или веб-страницы без получения разрешения.
  • Сайт, на котором вы размещаете ссылку, ведущую на наш ресурс, не должен содержать оскорбительные или дискредитирующие материалы. А также не должен нарушать чьи-либо авторские права.
  • Если кто-либо кликает по ссылке, которую вы разместили, она должна открывать наш сайт на новой странице ( вкладке ), а не внутри фрейма на вашем сайте.

Оценка качества ссылок

Не думайте, что, если внешняя ссылка расположена на сайте с доменом .edu, то она обязательно высокого качества. Множество студентов продают ссылки со своих персональных сайтов, которые зарегистрирован в зоне .edu . Поэтому они расцениваются как спам, и должны быть дезавуированы. Кроме этого многие сайты в зоне .edu содержат низкокачественные ссылки из-за того, что были взломаны. То же самое относится ко всем доменам верхнего уровня.

Представители Google подтвердили, что расположение сайта в определенной доменной зоне не помогает и не вредит его позициям в результатах поиска. Но нужно принимать решение для каждого конкретного сайта и учитывать обновления Пингвина Гугл .

Остерегайтесь ссылок с очевидно высококачественных сайтов

Просматривая список внешних ссылок, не рассматривайте их как высококачественные только потому, что они размещены на определённом сайте. Если только вы не уверены на 100% в её качестве. Только то, что ссылка размещена на авторитетном сайте, таком как Huffington Post или BBC , не делает её высококачественной в глазах Google . Многие из таких сайтов продают ссылки, причём некоторые из них являются замаскированной рекламой.

По мере увеличения объемов рекламного контента, мы будем видеть, как всё больше и больше таких ссылок помечаются как низкокачественные. Всегда проверяйте ссылки.

Промо-ссылки

Так же, как и в случае с рекламными ссылками, вы должны подумать над тем, не является ли ссылка, ведущая на ваш сайт, промо ( платной ) ссылкой. Платные ссылки не всегда означают получение денег.

Примерами промо-ссылок, которые в глазах Google являются платными, могут быть ссылки, размещённые в обмен на бесплатный продукт для обзора или скидку на продукт. Хотя такие типы ссылок были приемлемыми несколько лет назад, теперь они должны быть помечены атрибутом « nofollow ». Вы всё ещё можете получать выгоду от размещения таких ссылок. Они могут помочь увеличить узнаваемость бренда и привлечь трафик на сайт.

Крайне важно оценивать каждую внешнюю ссылку. Нужно удалить плохие ссылки, потому что они влияют на позиции ресурса в поисковой выдаче в результате воздействия алгоритма Пингвина Гугл , либо могут привести к ручным санкциям. Не стоит удалять хорошие ссылки, потому что они помогают вам подняться в поисковой выдаче.

Промо-ссылки, не помеченные атрибутом « nofollow », также могут спровоцировать наложение ручных санкций на сайт, на котором они размещены.

От санкций алгоритма Penguin не восстановиться?

Иногда, даже после того, как вебмастера проделывают огромную работу по очистке внешних ссылок, они всё равно не видят улучшений в объеме трафика или в позициях.

Есть несколько причин этого:

  • Изначальный прирост трафика и улучшение позиций в поиске, возникшие перед наложением алгоритмических санкций, были и исходили от плохих внешних ссылок.
  • Когда плохие внешние ссылки были удалены, не было предпринято усилий, чтобы получить новую ссылочную массу высокого качества.
  • Не все спам-ссылки были отключены.
  • Проблема не во внешних ссылках.

Когда вы восстанавливаетесь от санкций, наложенных алгоритмом Penguin, не ждите, что позиции вашего ресурса в поисковой выдаче возвратятся или это произойдёт мгновенно.

Некоторые ссылки, которые вы дезавуировали, могли влиять на позиции сайта в поисковой выдаче, поэтому нельзя вернуться на те высоты, которые сайт занимал до наложения алгоритмических санкций.

Многие высококачественные ссылки оказываются дезавуированы в процессе очистки, несмотря на то, что они положительно влияли на позиции ресурса в поисковой выдаче.

Добавьте к этому тот факт, что Google постоянно меняет фильтр Пингвин Гугл , поэтому факторы, которые приносили пользу раньше, теперь могут иметь не такое сильное влияние.

Мифы и заблуждения, связанные с алгоритмом Penguin

Вот несколько мифов и заблуждений об алгоритме Penguin , которые возникли за последние годы.

Миф: Penguin – это наказание

Один из самых больших мифов про алгоритм Penguin – это то, что люди называют его наказанием ( или тем, что в Google называют ручными санкциями ).

Penguin строго алгоритмический по своей природе. Он не может быть применён или снят специалистами компании Google в ручном режиме.

Несмотря на то, что действие алгоритма и ручные санкции, могут привести к большому падению в поисковой выдаче, между ними большая разница.

Ручные санкции возникают, когда специалист подразделения Google по борьбе с веб-спамом отвечает на претензию, проводит расследование и приходит к выводу о необходимости наложить санкции на домен. В этом случае вы получите уведомление в Google Search Console .

Когда к сайту применяются ручные санкции, нужно не только проанализировать внешние ссылки и отправить файл Disavow , содержащий спам-ссылки, но и отправить запрос на пересмотр вашего « дела » командой Google .

Понижение позиций в поисковой выдаче алгоритмом происходит без всякого вмешательства со стороны специалистов Google . Всё делает алгоритм Пингвин Гугл .

Раньше приходилось ждать изменения или обновления алгоритма, но теперь Penguin работает в режиме реального времени. Поэтому восстановление позиций может произойти гораздо быстрее ( если работа по очистке была выполнена качественно ).

Миф: Google уведомит вас, если алгоритм Penguin повлияет на ваш сайт

К сожалению, это не правда. Google Search Console не уведомит о том, что поисковые позиции вашего сайта ухудшились в результате работы алгоритма Penguin .

Это снова показывает разницу между алгоритмом и ручными санкциями – вас уведомят, если на сайт были наложены санкции. Но процесс восстановления от воздействия алгоритма схож с восстановлением от ручных санкций.

Миф: дезавуирование плохих ссылок – единственный путь восстановиться от воздействия алгоритма Penguin

Хотя эта тактика и позволяет удалить многие низкокачественные ссылки, она бесполезна. Алгоритм Penguin определяет долю хороших, качественных ссылок относительно спам-ссылок.

Поэтому вместо того, чтобы направить все силы на удаление низкокачественных ссылок, стоит сфокусироваться на увеличении количества качественных внешних ссылок. Это позитивно скажется на соотношении, которое учитывает алгоритм Penguin .

Миф: Вам не восстановиться от воздействия алгоритма Penguin

Можно вывести сайт из под Гугл Пингвин . Но это потребует некоторого опыта во взаимодействии с постоянно меняющимися алгоритмами Google .

Лучший способ избавиться от негативного влияния алгоритма Penguin – это забыть обо всех существующих внешних ссылках, ведущих на сайт, и начать собирать новые. Чем больше качественных внешних ссылок соберёте, тем проще будет освободить ваш сайт от уз алгоритма Google Penguin .

Данная публикация представляет собой перевод статьи « A Complete Guide to the Google Penguin Algorithm Update » , подготовленной дружной командой проекта Интернет-технологии.ру

Фильтр Google Пингвин — Итоги года

Ровно год назад, 24 апреля, Google запустил новый алгоритм под названием “Пингвин”. Все вебмастера, кто максимально автоматизировал процесс продвижения сайта, почувствовали действие фильтра в резком падении трафика. Что произошло за этот год и какая текущая ситуация с “Пингвином”?

Краткое предисловие

Буквально через неделю после запуска нового алгоритма на MicrositeMasters появилась аналитика, основная суть которой заключалась в следующем. Пострадали больше всего сайты, имеющие в обратных ссылках:

  • Много прямых вхождений ключевых слов.
  • Мало вхождений в виде адреса сайта ( URL ).
  • Мало тематических доноров.

Позже было проведено ещё одно исследование для поиска конкретных лимитов и способов выхода из-под фильтра. В результате исследования было найдено, что:

  • Хорошо иметь nofollow-ссылки среди бэклинков (у пострадавших сайтов их было меньше 15%).
  • Хорошо иметь также http и бренд-анкоры в обратных ссылках.
  • Более 50% прямых вхождений ключей в анкор-лист грозит попаданием под фильтр.
  • Для вышедших из-под фильтра сайтов сработал лишь 301 редирект на новый домен.

Стало понятно, что ссылки стали говорить поисковой системе не только о весе и релевантности, но также и о доверии. Так как появились вопросы влияния плохим ссылочным окружением на конкурентов, Google разработал специальный инструмент для отклонения ссылок.

Стоит отметить, что Пингвин затронул всего 3-5% поисковых запросов (Панда – 12%), то есть применяется не для всех тематик, но не заметить его влияние было сложно.

Топ-пост этого месяца:  R-Money вебмастеру — деньги, а студентам скидки! Образовательный сезон открыт

Нет быстрых решений

Так как из-за нового алгоритма многие компании начали терять часть бизнеса, все искали быстрых решений выхода из-под фильтра. Одним из выходов из ситуации был 301 редирект на новый домен (по которому раньше не передавался фильтр, но передавались все положительные качества ссылок). Однако, в августе 2012 команда вебспама Google отключила эту возможность и, практически, все сайты, которые на время вышли из-под Пингвина, снова были исключены из ТОП а.

Сейчас 301 редирект не работает для выхода из-под фильтра.

Причем, так как гугл находит зеркала не только по редиректу, но и по аналогичному контенту, то даже смена сайта (домена) не помогала (если контент оставался прежним), так как Google понимал, что это один и тот же сайт со старой историей. Мэтт Каттс заявляет, что должно пройти время, чтобы к сайту вернулось доверие.

За год было всего 2 обновления алгоритма Пингвин — 25 мая и 5 октября 2012. И как заявили на конференции SMX West, в этом году ожидается самый масштабный апдейт Пингвина (когда именно, пока не известно, может быть как раз на годовщину). За все это время кейсов выхода из-под фильтра — единицы . Часть из кейсов – западные, русскоязычные в паблике найти сложно, в основном они ходят в кулуарах между специалистами разных компаний. Но все они основаны на тщательном/кропотливом вычищении переспама, причем не только в ссылках, но и в контенте и коде страниц.

Что нам известно сейчас?

Сейчас нам известно, что есть 3 основные причины наложения фильтра “Пингвин”:

Низкокачественные ссылки
Куда относится переспам анкоров прямыми вхождениями ключей, размещение ссылок на сайтах низкого качества, обмен ссылками для повышения PageRank друг-друга, участие в ссылочных схемах для манипулирования поисковыми алгоритмами.

Продажа ссылок с сайта
Сюда относится наличие нетематических исходящих ссылок на сайте, а также общая заспамленность сайта коммерческими ссылками.

Шаблонный контент
Много дублей в поиске является признаком шаблонного контента. В результате фильтра сайт проседает по множеству низкочастотных запросов.

В целом, Google большое внимание уделяет определению доверия к сайту по внутренним и внешним факторам. Если у поисковика сложилось плохое мнение о сайте по комплексу факторов, то инструмент отклонения ссылок не поможет избавиться от фильтра.

Google хочет, чтобы мы зарабатывали ссылки, а не проставляли их сами.

Какие рекомендации?

Сложно давать рекомендации при дефиците положительных кейсов, однако, можно сказать следующее. Так как Google большое внимание уделяет ссылкам, то сначала необходимо провести ссылочный аудит, выявить плохих доноров и избавиться от них, либо добавить в инструмент отклонения ссылок от Google.

Пока Google проанализирует файл, ссылки и сайт, а также выкатит новый апдейт, есть время поработать с самим сайтом, чтобы увеличить доверие от поиска.

Информация из недавней видео-встречи с Google.

Ринат Сафин (Google): “Развейте миф: говорят что “запингвиненные” сайты уже ничем не вытащить из глубин фильтра – проще бросить и сделать новый?” Семен из Кирова спрашивает.

Владимир Офицеров (Google): Ну, я вам так скажу – если вам проще бросить сайт, на который вы потратили какую-то часть своей жизни, то значит, не очень-то ценный был сайт. Скорей всего, нет. Пингвин, не пингвин – любой алгоритм, который мы внедряем, рано или поздно будет обновлен. Мы стараемся делать как можно чаще, но не всегда это можно делать каждый день. Соответственно, если ваш сайт… на него нет платных ссылок, если остальные платные ссылки вы убрали через инструмент отклонения, если на вас нет ручных мер, ваш сайт вернется туда, где он заслуживает быть. А дальше это, собственно говоря, уже зависти от того, насколько пользователям нравится ваш сайт, тот контент, который там предоставлен, и соответственно, насколько он интересен.

Используйте комплексный подход, не останавливайте работу на вычищении ссылок, улучшите сайт максимально для пользователя. И обязательно поделитесь своим положительным кейсом и другими наблюдениями в комментариях.

Google Пингвин: принцип работы, как не попасть под фильтр и выйти из него

Гугл Пингвин (Google Penguin) – алгоритм поисковой системы, который борется с веб-спамом. Преимущественно он направлен на устранение некачественных ссылок, которыми злоупотребляют оптимизаторы.

История разработки алгоритма

Очередной фильтр поискового гиганта был выпущен 24 апреля 2012 года. И сразу после этого появилось очень много недовольных вебмастеров, так как во многих нишах выдача серьезно изменилась. Огромное количество ТОПовых ресурсов потеряли от 10 до 50 процентов трафика и у некоторых популярных блогов суточная посещаемость упала до 100-200 уникальных посетителей.

В первые два месяца алгоритм обновлялся два раза, так как создатели работали над улучшением первой версии. Чуть менее чем через год на свет появилась вторая версия фильтра. И Google Penguin помимо уровня спама ссылок стал обращать внимание на общий уровень документа, то есть, его качество в целом.

В 2014 году Penguin снова обновили, и он особенно не понравился владельцам сайтов, которые попали под фильтр, потому что после исправления всех нарушений им приходилось ждать, когда алгоритм обновится в очередной раз – до этого момента никаких проверок откорректированных ресурсов поисковик не осуществлял.

Благо, в 2020 году вышла четвертая версия Пингвина. Он начал работать в режиме онлайн и постоянно обновляться. Современные версии алгоритма в процессе анализа сайтов уже учитывают их уровень в целом и качество документов, а также исключают неестественные ссылки, при этом ресурс не удаляется из индекса.

На что влияет и направлен?

Опытные вебмастера и оптимизаторы, продвигающие сайты уже много лет, помнят те славные времена, когда для того, чтобы вывести проект в ТОП по определенному высокочастотному запросу, достаточно было грамотно внедрить два этих пункта:

  1. Написать оптимизированный текст с многократным вхождением ключевых слов непосредственно в контенте и опубликовать статью на сайте.
  2. Пойти на биржи ссылок и купить с десяток анкорных ссылок, где содержится ключевой запрос, при этом не обязательно было искать качественного донора.

Вот собственно и все, что нужно было делать, чтобы поисковые системы ранжировали ваши документы в ТОПе.

Но шли года, сотрудники поисковой системы искали новые инструменты для улучшения качества поиска, где любой пользователь найдет полезную и релевантную информацию на свой запрос максимально быстро. Развитие алгоритмов было направлено на исключение из первых страниц выдачи ресурсов, манипулирующих ссылками и ключами для повышения рейтинга своего сайта.

И вот для борьбы с оптимизированными текстами была внедрена Гугл Панда, а проверять качество внешних ссылок был призван Пингвин, запуск которого в корне поменял выдачу Google.

Основной целью фильтра Penguin является нахождение и блокировка площадок, владельцы которых для их продвижения применяют серые и черные методы. Жестче всего наказывают за наращивание ссылочной массы за счет покупных ссылок.

Алгоритм влияет на ранжирование сайта в поисковой выдаче. Некоторые заявляют, что Пингвин не пессимизирует сайт в поиске, а лишь отправляет его на то место, которое он по праву заслуживает. Но это ошибочное утверждение, потому что ресурс «проседает» в выдаче в результате анализа веса негативных факторов и оценки их влияния, которые индивидуальны для каждого проекта. Это ли не пессимизация?

Принцип работы

В режиме реального времени алгоритм начал функционировать с 2014 года, а автоматические обновления появились лишь в 2020 году. Как упоминалось выше, раньше сайтам, чтобы выйти из-под санкций, нужно было подолгу ждать следующего обновления, а сейчас избавить ресурс от действия фильтра можно после первой же переиндексации, если успеть исправить все нарушения.

Из за Пингвина ухудшается ранжирование только определенных страниц, нарушающих правила поисковой системы, а не весь сайт. Взаимодействуя в комплексе с Google Panda, Penguin очищает релевантную выдачу от переоптимизированных площадок.

У Яндекса тоже есть подобный фильтр, но называется он «Минусинск».

Как не попасть под Гугл Пингвин?

Чтобы избежать наложения фильтра, особое внимание нужно обратить на размещение внешних ссылок, чтобы со стороны поисковика это не выглядело так, будто вы манипулируете ссылочным профилем для влияния на ранжирование. К основным способам манипуляции внутренними и входящими внешними ссылками относят:

  • Покупка ссылок, размещаемых на нетрастовых и нетематических донорских ресурсах.
  • Откровенно договоренный обмен ссылками, когда владельцы разных площадок договариваются друг с другом о взаимовыгодном размещении бэклинков, а не по причине того, что у кого-то качественная статья.
  • Применение сервисов, автоматически генерирующих ссылки на ресурс.
  • Размещение на сайте изобилия статей, в тексте которых содержатся анкоры и прямые вхождения ключевиков, ухудшающие читабельность контента.
  • Наличие в подвале или сайдбаре веб-ресурса сквозных ссылок, в тексте которых прописан ключевой запрос.
  • Размещение на сайте большого количества анкорных ссылок с прямым вхождением ключевых фраз.
  • Наличие в комментариях к публикациям ссылок на спам-сайты.

Все вышеперечисленные действия воспринимаются Гуглом как «link schemes» или «недобросовестные ссылочные схемы», за которые алгоритм Пингвин быстро применит санкции, отправив ваш сайт далеко за пределы первых страниц поиска.

Чтобы предупредить наложение фильтра, необходимо:

  • Делать разнообразный анкор-лист, помимо анкорных ссылок размещать безанкорные, разбавленные вхождения ключей, простой URL, брендовые линки и так далее.
  • Если и покупать ссылки, то только с тематических и авторитетных площадок и, самое главное, постепенно и постоянно, чтобы ссылочная масса росла плавно, без скачков и простоев.
  • Следить за соотношением естественных и SEO-ссылок. Разумеется, первых должно быть значительно больше.
  • Приобретать бэклинки у множества доноров, причем не забывать об их качестве. Не допускать размещение множества ссылок с одного определенного сайта – это выглядит неестественно и само собой привлекает внимание поиска.
  • По аналогии с предыдущей рекомендацией, ссылки должны вести не только на главную страницу, а и на множество других документов.
  • Писать «живой» контент для людей, а не генерировать его программами.
  • Не допускать публикацию неуникального или дублирующего материала.
  • Не использоватьклоакинг для отображения поисковикам и пользователям разной информации на одной и той же странице.
  • Не применять скрытый текст или ссылки для манипуляции рейтингом сайта.
  • Не использовать дорвеи.
  • Участвуя в партнерках, стараться писать свой, полезный для вашей целевой аудитории контент, а не публиковать статьи, предлагаемые партнерскими сетями, качество которых зачастую оставляет желать лучшего.
  • Прописывать ключевики, соответствующие тематике статьи.
  • Ни в коем случае на своих страницах сайта не участвовать в мошенничестве и ставить ссылки на установки вредоносных программ.
  • Не допускать неправильное применение разметки для расширенных описаний страниц.

Как определить что сайт попал под Пингвин?

Явные признаки того, что на ресурс наложены санкции алгоритма Google Penguin:

  1. Страницы по определенным запросам потеряли 30-50 позиций в Google;
  2. С поисковой системы Google на сайт переходит значительно меньше посетителей, чем обычно, тогда как трафик в Яндексе остался без изменений.

Фильтр Пингвин применяется к сайтам двумя способами:

Если санкции были наложены вручную, то вы получите оповещение в вебмастерской панели Google Search Console, где будет указана причина и рекомендации по дальнейшим действиям.

Не обращайте внимание, если содержание вашего письма будет немного отличаться от вышеизложенного. Требования остаются одинаковыми – следует удалить все неестественные и некачественные обратные ссылки, а дальше – отправить запрос на повторную проверку. Найти сообщение можно, перейдя в меню «Поисковый трафик», а затем выбрав раздел «Меры, принятые вручную».

Если алгоритм применен к площадке ручным методом, то здесь вы обязательно найдете письмо от службы антиспама. Но, скорее всего, вы увидите сообщение следующего содержания:

Следовательно, фильтр Пингвин сработал автоматически. Тогда никакого уведомления ждать не стоит. Чтобы убедиться, что площадка подверглась именно данному алгоритму, необходимо воспользоваться специальными сервисами, например, Barracuda. У него есть инструмент Panguin Tool, собирающий информацию со статистики Google Analytics, после чего отображает на графике посещаемости даты обновления всех возможных фильтров поисковика, благодаря чему вы увидите, какой из них спровоцировал «просадку» по трафику.

Но перед использованием продукта на сайте нужно подключить вышеупомянутую статистику от Гугла, предоставив данные для доступа в Аналитику:

  1. Залогиньтесь в Google Analytics через Barracuda Digital.
  2. Подтвердите доступ к Аналитике для сервиса.
  3. Укажите из предлагаемого списка аккаунт ресурса, откуда будет анализироваться статистика посещаемости.

После этого у вас отобразится график за последний год с указанием всех дат апдейтов фильтров поисковой машины. Если изменения в ранжировании приблизительно или даже в точности совпадают с датой обновления Пингвина, значит сайт наверняка подвергся ему.

Как выйти из-под фильтра?

Убедившись в том, что ваш проект попал под фильтр алгоритма Penguin, не нужно сразу же удалять все ссылки, иначе вы сделаете только хуже. Ресурс нуждается в постепенной и грамотной чистке. Сам Google рекомендует начать наращивать ссылочную массу с нуля, без спешки, за счет качественного контента и естественных линков.

Но это не совсем то, что нам подходит. Мы постараемся достичь естественного ссылочного профиля наименьшими жертвами. Для начала анализируем профиль и определяем, какие бэклинки размещены на авторитетных и полезных площадках, а какие – на спамных. Поможет вам в этом сервис Majestic SEO или Ahrefs.

Что касается исходящих ссылок, то для тех, что ведут на плохие сторонние источники, достаточно прописать атрибут nofollow, который запретит роботам учитывать их при ранжировании.

А вот убрать все внешние ссылки уже труднее, потому что наверняка у вас не получится связаться и договориться об удалении бэклинков со всеми владельцами доноров. Здесь компания Google идет вебмастерам навстречу и предлагает сервис Disavow Links. Он предназначен для внесения неестественных ссылок, которые не следует учитывать в процессе ранжирования.

Чтобы быстро собрать список всех страниц-доноров:

  1. Переходим в панель инструментов вебмастера в меню «Поисковый трафик» – «Ссылки на ваш сайт».
  2. Внизу ищем и кликаем на «Дополнительно».
  3. Нажимаем на «Загрузить последние ссылки» для их сохранения на свой компьютер.
  4. Выбираем формат, например, Excel.

Затем перед вами стоит два способа проверки ссылок на качество: посредством сервисов или самостоятельно, для чего нужны навыки и уйма свободного времени. Лучше прибегнуть к первому варианту – он проще и быстрее.

Одним из лучших сервисов по проверке качества и трастовости ресурсов является CheckTrust. На его примере рассмотрим, как отобрать качественные и некачественные бэклинки:

  1. Создайте проект «BackLinks Checker».
  2. Укажите рандомное название проекта и загрузите с вашего ПК файл со списком обратных ссылок.
  3. Кликните «Далее».
  4. Вам будет предложено выбрать один из пяти типов очистки: «легкая», «умеренная», «отличная», «жесткая» и «нужны все варианты». Не будем объяснять отдельно суть каждой из них, порекомендуем лишь выбрать последний способ, чтобы изучить все списки и увидеть, какие из возможных сомнительных доноров стоит все же оставить.
  5. По окончанию проверки проекта системой, статус поменяется на «Выполнено» и вы сможете загрузить его на компьютер в текстовом формате.

В файле вы найдете список некачественных доменов, которые следует указать в инструменте Disavow Links.

В аналогичном формате (domain:site) прописывайте в сервисе все ненужные площадки для их учета фильтром Google Penguin.

Далее переходим в Disavow Links и указываем веб-сайт, для которого необходимо отклонить все некачественные бэклинки.

Потом загружаем файл с линками, выгруженный из сервиса ChekTrust, кликаем поочередно «Готово» и «Отправить».

По окончанию в сообщении вы увидите количество отклоненных доменов. Ну а дальше остается ждать апдейта.

Не забудьте! Если фильтр был наложен вручную, то после исправления всех недочетов вам нужно самостоятельно подать запрос на повторную проверку в панели инструментов вебмастера. Постарайтесь описать максимально детально ваши действия, которые были направлены на повышение естественности ссылочного профиля и качества контента ресурса – это может ускорить процесс.

Но продолжайте пополнять ссылочный профиль новыми, естественными линками, только на этот раз будьте внимательны и размещайте хорошие обратные ссылки с авторитетных доноров. Поисковик любит постоянный и плавный прирост ссылочной массы.

Обращайте внимание на разнообразие анкоров ссылок. Постарайтесь поменять уже размещенные анкорные ссылки на безанкорные, хотя сделать это не так уж и просто. Лучше дополнять профиль новыми безанкорными линками.

Не пренебрегайте и расширением списка доноров внешних ссылок, так как это тоже влияет на их естественность. Бэклинки должны идти с самых разных источников: с тематических блогов, каталогов, социальных сетей, новостных порталов, форумов и прочих площадок.

Как правило, на полноценную чистку сайта и его вывод из-под фильтра Penguin уходит около двух-трех месяцев.

История обновления фильтра

Согласно информации известного портала Moz, фильтр алгоритма Гугл Пингвин обновлялся в следующем хронологическом порядке:

  1. 24 апреля 2012 года – первое обновление, коснувшееся чуть более 3 процентов англоязычных запросов.
  2. 5 мая 2012 года – обновление Penguin 1.1 (#2).
  3. 5 октября 2012 – обновление Penguin (#3).
  4. 22 мая 2013 – обновление Penguin 2.0 (#4). Начал больше учитываться уровень документа.
  5. 4 октября 2014 – обновление Penguin 2.1 (#5).
  6. Октябрь 2014 – обновление Penguin 3.0 (#6).
  7. Декабрь 2014 года – обновление PenguinEverflux (#7). Фильтр начал обновляться в режиме реального времени.
  8. 23 сентября 2020 – обновление Penguin 4.0Announcement (#8). Алгоритм стал лучше идентифицировать спам.
  9. 27 сентября 2020 года – обновление Penguin 4.0,Phase 1 (#9). Вместо бана всего ресурса фильтр перестал ранжировать спам-ссылки.
  10. 6 октября 2020 – обновление Penguin 4.0, Phase 2 (#10).

Заключение

Как видите, естественность, качество и спамность ссылок играет одну из ключевых ролей в вопросе попадания сайта под санкции Google Penguin. Оптимизация контента тоже не менее важна.

По сути, Google Пингвин является аналогом алгоритма «Минусинск» от Яндекса, который тоже наказывает сайты, манипулирующие ссылками для влияния на ранжирование и поднятие позиций в поисковой выдаче.

Пожалуйста, оцените эту статью. Чтобы мы могли делать лучший контент! Напишите в комментариях, что вам понравилось и не понравилось!

Рейтинг статьи: / 5. Кол-во оценок:

Пока нет голосов! Будьте первым, кто оценит эту статью.


Фильтры поисковых систем. Google

В статье:

Фильтры, которые стали частью алгоритма

Фильтрами называют части поискового алгоритма, отвечающие за понижение или исключение сайта из выдачи. За нарушение принципов честной оптимизации поисковик накладывает на сайт санкции. Причинами могут быть нечестные способы раскрутки, технические проблемы, низкое качество контента, «взрослое» содержание и другие.

В этом материале разберем фильтры от поисковика Google. Многие обновления Google, которые называют фильтрами, сейчас входят в алгоритм поисковой системы и выступают как сигналы ранжирования. В 2020 году их становится сложнее определить: сигналы довольно размыты. Если сайт попал под воздействие алгоритма, оповещения не будет, остальные санкции накладывают вручную, и если сайт их получает, то обычно это видно в консоли.

Если ваш сайт внезапно начал терять трафик, понизился в выдаче или пропал вовсе, это часто означает, что поисковик нашел нарушение и наложил санкции.

Потеря позиций не всегда связана с наложением санкций поисковиков, важно отличать санкции от:

  • выпадения продвигаемой страницы из индекса. Проверить можно по запросу полного адреса страницы в поисковике;
  • изменения алгоритма ранжирования, в результате которого позиции многих сайтов изменились и вашему сайту не повезло оказаться среди них. Для этого сравните топ выдачи по интересующему запросу до и после апдейта. Если существенно потерял позицию только ваш сайт, то это фильтр. Если изменения в топе более значительные, вроде выпадения половины сайтов из топ-10 или смены сайтов в топ-3, то это, вероятно, алгоритм. К примеру, такая ситуация была во время так называемого «Медицинского апдейта», когда из-за обновления алгоритма многие сайты преимущественно медицинской тематики потеряли в позициях.

Англоязычную и немецкоязычную части интернета Google считают наиболее «чистыми» от нечестных методов продвижения. Чтобы занять высокие позиции в выдаче, владельцы сайтов повышают релевантность содержания. Основная работа SEO-специалистов направлена на создание контента, привлекательного и для пользователей, и для поисковиков.

Остальная же часть интернета оптимизирует сайты так, чтобы быть на грани попадания под фильтры. Это наиболее простой способ попадания в топ, однако при нем любое малейшее изменение в алгоритмах может заставить вас потратиться на смену всей стратегии продвижения. Если вы делаете контент «для людей», не злоупотребляете ссылками и не спамите, то санкции вас, скорее всего, не потревожат.

Возможно, нет смысла искать признаки санкций у своего сайта по устаревшим названиям фильтров. К примеру, «Панда» и «Пингвин» входят в поисковый алгоритм и могут применяться вместе. Но все-таки причины и история у них разные, поэтому рассмотрим некоторые популярные фильтры по отдельности, как они появлялись.

Песочница (Sandbox) — миф?

«Песочница» — название для фильтра поисковика, который якобы применяют к молодым сайтам, чтобы молодые сайты непонятного качества не попали в топ. Сайту нужно пересидеть какое-то время в «песочнице» перед тем, как он появится в индексе.

По официальной позиции Google «Песочницы» (Sandbox) не существует. Некоторые оптимизаторы считают, что что-то похожее по эффекту есть: молодые сайты не получают трафик, но не из-за молодости, а потому что недостаточно авторитетны, плохо развиты, до них еще не добрался краулер и так далее.

Представитель Google Гарри Иллис в Твиттере заявил, что у поисковика нет песочницы:

Представитель поисковика Джон Мюллер также заявлял, что для попадания в топ нет ограничений по возрасту страниц:

«Мы не создаем искусственных ограничений для высокого ранжирования новых страниц. То есть, у нас нет предписаний, что, скажем, по этому ВЧ-запросу попасть в топ могут только страницы определенного возраста, с определенным количеством бэклинков и соответствующие другим обязательным критериям.

На самом деле все обстоит иначе. У нас есть множество факторов, которые определяют то, как именно сканируется, индексируется и ранжируется веб-контент. И вот иногда случается так, что новая страница в силу определенных причин оказывается для нас предельно важной. Как итог, мы можем ранжировать ее очень высоко в SERP даже по ключевым словам с заоблачной конкуренцией. Повторюсь, такое теоретически возможно!»

Считается, что этот миф появился несколько лет назад в 2004-2005 годах. С тех пор поисковик периодически опровергает его, но остаются веб-мастеры, которые наблюдают «эффект песочницы» на своем опыте и считают, что Google его скрывает.

Они советуют ждать и развивать сайт, тогда стабильный рост качественной ссылочной массы и полезного контента не останется без внимания поисковика и ускорит выход. К тому же, качественный сайт с большей вероятностью после выхода из «Песочницы» сразу займет хорошую позицию в поисковой выдаче.

Важным показателем качества сайта станут поведенческие факторы и реальная обратная связь пользователей, например, в виде системы оценок статей или открытых комментариев. Те, кто уверен в наличии «Песочницы», обычно оценивают выход из-под этого фильтра в срок до года.

Пингвин (Penguin)

Обновление «Пингвин» было запущено поисковиком Google 24 апреля 2012 года в качестве средства борьбы с нечестным ссылочным продвижением — спамом, нерелевантными ссылками, переоптимизированным якорным текстом. В 2020 году фильтр обновили в последний раз, а потом он стал частью поискового алгоритма Google.

После обновления в 2020 году «Пингвин» не наказывает за спамные ссылки, а просто обесценивает и игнорирует их. В некоторых случаях сайт может потерять позиции, если обеспечивался такими ссылками.

В январе 2020 года западные оптимизаторы обсуждали, жив или мертв алгоритм «Пингвин». Большинство считает, что он жив, а представитель Google Джон Мюллер пространно ответил, что оба варианта верны, потому что все вещи меняются и развиваются со временем.

Сейчас «Пингвин» интегрирован в поисковый алгоритм, обновляется постоянно и работает в режиме реального времени, поэтому Google не уведомляет об обновлениях.

В отличие от алгоритма «Панда», он распознает сигналы на уровне страницы и не переносит их на весь ресурс. Если сайт использует спамные ссылки, то они обесцениваются, а страница может потерять свои позиции.

Раньше рекомендовали использовать инструмент отключения ссылок Disavow, чтобы не получить санкции за спамные ссылки. Сейчас спамные ссылки прсото игнорируются, но представители поисковика все равно рекомендуют использовать инструмент для восстановления после проблем с «Пингвином», и чтобы помочь Google быстрее выявить спамные сайты.

Санкции за нарушения применяют в том числе и вручную, о чем заявлял представитель Google Гарри Иллис. Если Google обнаружит, что сайт систематически пытаются продвигать через спам, то применит более жесткие ручные санкции. Тогда вам придет соответствующие сообщение от Google в Search Console.

Ручные санкции от «Пингвина»

Обычно начинается с сообщения в Google Search Console о том, что ваш сайт подозревается в использовании искусственных входящих ссылок. Далее сайт падает по посещаемости и позициям в Google. Позиции могут обвалиться резко или падать постепенно.

Основной сигнал для наложения «Пингвина» вручную — переспам анкоров. Использование обратных ссылок с коммерческими или другими ключевыми словами с большой долей вероятности приведет к ручному фильтру.

Как снять:

  1. Проверьте, есть ли уведомление в Google Search Console. Если есть, составьте запрос на пересмотр. В первом запросе уточните, какие именно ссылки нарушают правила, и спросите, что необходимо сделать для снятия санкций;
  2. В ответе сотрудники поисковика укажут несколько примеров ссылок, которые считают спамными и нарушающими руководство для веб-мастеров Google. Если проблемные ссылки арендованные — удалите все подобные ссылки. Если же вы получили «Пингвина» за вечные ссылки, составьте список нежелательных ссылок в TXT файл, используя Search Console.
    Выгрузку можно упорядочить по имени хоста: Ссылки на ваш сайт ->Наиболее часто ссылаются ->Загрузить больше ссылок для примера. Или в хронологическом порядке: Ссылки на ваш сайт ->Наиболее часто ссылаются ->Загрузить последние ссылки.
    Для надежности, и если сайт выброшен из поиска, добавьте результаты из сторонних сервисов проверки входящих ссылок вроде Linkpad или Majestic, каждая ссылка с новой строки. После чего загрузите файл в сервис отклонения входящих ссылок Google — Disavow Tool.
  3. Подождите переиндексации ссылок. Обычно на это уходит около одной недели, но для подстраховки подождите две.
  4. Составьте новый запрос на пересмотр. В запросе четко укажите все ваши действия, в том числе список всех удаленных и закрытых ссылок, и уточните, что еще нужно сделать для снятия негативного эффекта.
  5. Заявка обрабатывается до одного месяца, после чего придет положительный или отрицательный ответ. Если вам отказали, проделайте пункты 2-4 снова, но более тщательно. Иногда требуется повторить чистку ссылок и отправить запрос несколько раз, чтобы выйти из-под фильтра.

Панда (Panda)

«Панда» — часть поискового алгоритма, относится к оценке качества сайта и контента на нем. Основной момент, на который «Панда» обращает внимание — это контент.

Изначально до 2020 года «Панда» была фильтром, но сейчас корректно называть ее сигналом ранжирования. Алгоритм распознает сигналы на уровне страницы и распространяет их на сайт в целом, в отличие от «Пингвина», который рассматривает отдельные страницы.

«Панда» обращает внимание на пользовательский спам, переоптимизацию ключами, плагиат. Особенность алгоритма в том, что за нарушения на большинстве страниц он может пессимизировать, а иногда и вовсе выкинуть из индекса весь сайт целиком.

Но если на сайте страниц с нарушениями немного, сайт в целом может считаться качественным. Google может продолжить показ этих сайтов по специфичным и высокорелевантным запросам, а по некоторым запросам видимость будет снижена.

Рискуют попасть под фильтр сайты, у которых:

  • Много неоригинального контента. В пределах самого сайта также не должно быть дублей контента.
  • Много нерелевантных заголовку страниц.
  • Избыточное количество вхождений ключевых слов и фраз в текстах, заголовках, мета-тегах и описаниях изображений.
  • Высокий процент отказов пользователей, как на отдельных страницах, так и на всём сайте в целом, низкая средняя величина времени пребывания пользователя на сайте.
  • Нерелевантная реклама.
  • Контент, структурированный и оформленный шаблонно и однообразно.
  • Узкий анкор-лист внутренней перелинковки.
  • Если при переходе на сайт пользователь видит только логотип и рекламу — санкций от Google не избежать.

Один из критериев оценки контента у Google — поведенческие факторы. В случае с «Пандой» контент оценивается не только алгоритмами, но и вполне живыми людьми — асессорами. Поэтому важно создавать оригинальный, полезный и легко находимый контент, что положительно скажется на времени пребывания пользователей на сайте и глубине просмотра.

Как снять/не попасть под действие:

В первую очередь обратите внимание на качество контента на вашем сайте:

  • удалите дубли страниц, копипаст и приведите в порядок внутреннюю перелинковку. Весь контент удалять не нужно, многие страницы могут приносить трафик и быть качественными;
  • через Search Console найдите запросы, которые ведут к страницам, не удовлетворяющим потребности или дающим неопределенную информацию.
  • разбавьте тексты на сайте маркированными или нумерованными списками, изображениями, графиками, видео, исправьте все орфографические, грамматические, стилистические и фактические ошибки;
  • располагайте статьи на первом же экране сайта, без необходимости прокрутки.
  • проверьте заголовки на сайте: они должны соответствовать содержанию страниц;
  • устраните избыточные вхождения ключевых слов в текстах, заголовках h1-h6, мета-тегах и описаниях изображений;
  • регулярно добавляйте новые полезные материалы на сайт.

Помимо контента причиной наложения санкций могут быть и другие факторы:

  • Приведите в порядок техническую часть сайта, это улучшит скорость загрузки и поднимет лояльность пользователей. Подробнее — в статье о техническом аудите сайта;
  • Улучшите юзабилити сайта. Это также положительно скажется на поведенческих факторах. Подробнее о юзабилити — в нашей статье о самостоятельном юзабилити-аудите сайта: часть 1, часть 2;
  • Удалите исходящие ссылки на ресурсы, которые не подходят тематике окружающего ссылки текста и тематике вашего сайта в целом;

Алгоритмы «Панды» обновляются каждый месяц. Во время каждого обновления поисковые роботы просматривают сайты на соответствия требованиям Google по качеству. Если вы попали под фильтр, но обнаружили и устранили недочеты на вашем сайте, рано или поздно он будет снят. Будьте готовы к тому, что на это понадобится не одно и даже не два обновления — в некоторых случаях выход из под «Панды» может занять более года.

Время загрузки (Speed Update)

Обновление Google Speed Update выкатили в 2020 году. Его нельзя назвать фильтром как таковым, но от него могут страдать медленные сайты. Обновление влияет на сайты с долгой загрузкой и касается мобильной выдачи: фактор скорости загрузки сайта получил больше веса в алгоритме ранжирования, поэтому очень медленные сайты будут получать более низкие позиции. На позиции сайтов, которые загружаются быстро или средне, апдейт не распространяется.

Проверьте скорость загрузки вашего сайта. Если ресурс загружается медленно, скорость можно увеличить — подробно о том, как это сделать, читайте в разделе нашего руководства по техническому аудиту сайта.

Mobile-first индекс

Это обновление алгоритма. Переход на мобильный индекс происходит постепенно, но в будущем алгоритмы будут ориентироваться на мобильный индекс. Поисковик будет индексировать мобильную или адаптивную версию сайта, непригодные для мобильного просмотра сайты будут занимать более низкие места в выдаче.

Не потерять позиции поможет оптимизация под мобильные устройства.

Что должно быть на сайте:

  • Мобильная версия или адаптивный дизайн.
  • Доступ к мобильной версии для поискового бота.
  • Высокая скорость загрузки, чтобы сайт открывался на мобильных.

Проверить скорость загрузки сайта и отображение на мобильных устройствах.

Колибри

Алгоритм Google, который анализирует семантику текстов на сайтах. Он появился в 2013 году. «Колибри» нужен, чтобы составлять выдачу из ресурсов, которые будут наиболее полно отвечать нуждам пользователя, понимать его намерение, а не просто отвечать на вопрос.

Это не фильтр в общем понимании, санкций на сайты не накладывает, но те ресурсы, которые не отвечают требованиям, будут уступать в позициях.

Каким должен быть сайт:

  • контент адаптирован под пользовательские интенты;
  • учтены разные цели пользователей, разным задачам — разный материал,
  • используются синонимы, формы разговорных запросов, сопутствующие ключи;
  • тексты написаны естественным живым языком, без переспама.

«Фред» — неофициальное название модификации алгоритма 2020 года, которое потом получило официальное имя «Google Maccabees». Обновление выявляло сайты с малоценным контентом низкого качества, которые противоречат рекомендациям поисковика.

С «Фредом» пришли и санкции для некачественных сайтов, они получили снижение трафика в органике до 90% .

От обновления пострадали сайты:

  • низкого качества с малополезными «водяными» текстами;
  • с переоптимизированными короткими текстами;
  • с текстами, написанными для роботов, а не для людей;
  • с большим количеством баннерной рекламы;
  • копирующие чужой контент.

Обновление не рассматривают как отдельный фильтр — это часть поискового алгоритма. Чтобы не попасть под санкции, нужно продвигать сайт белыми методами, писать тексты для людей, не увлекаться ключами и копированием чужого контента.

Слишком много ссылок сразу (Too many links at once)

Раньше поисковик накладывал такой фильтр за ссылочный взрыв. Google определял манипуляции, если на сайт ссылалось много ресурсов за короткий промежуток времени. Сейчас за качеством ссылок следит «Пингвин», а «Too many links» как таковой не используется.

У сайтов под таким фильтром были признаки:

  • сильное падение трафика с Google;
  • поисковик игнорирует все новые покупаемые ссылки;
  • уже существующие внешние ссылки практически не влияют на позиции сайта.

Чем моложе сайт, тем выше была вероятность наказания. Для сайта, которому менее полугода, рекомендовали закупать не более 1-2 ссылок в день. Далее, если качественных входящих ссылок достаточно, советовали увеличить их до 3-5.

Еще существует мнение, что можно было попасть под подозрения, если на сайте резко появлялось слишком много страниц. Тогда поисковик применял «Too many pages at once». Но вообще в правилах нет запрета на одновременную публикацию определенного количества страниц.

Битые ссылки (Broken links)

Фильтр за битые ссылки — тоже часть поискового алгоритма, который анализирует качество ссылок сайта. Ресурс с большим количеством внутренних ссылок, которые ведут на несуществующие страницы и выдают ошибку 404, получит санкции. Почти во всех случаях сайт теряет позиции в выдаче.

Как снять санкции за битые ссылки:

  • Найдите все битые ссылки на сайте. Как это сделать, читайте в нашей статье о техническом аудите сайта;
  • Удалите их или перенаправьте на существующие страницы.

Ссылочная помойка (Links)

Он тоже входит в алгоритм, часто накладывается на сайты, которые дешево продают места под ссылки на своих страницах. В зоне риска сайты, на одной странице которых находится более пяти внешних ссылок, особенно если они не связаны тематически. Ссылки перестают передавать вес, сам сайт понижается в поисковой выдаче, а страницы выпадают из индекса.

Как снять:

Удалите все нетематические ссылки на сайте, закройте их атрибутом rel=nofollow или настройте переадресацию на страницу, заблокированную в файле robots.txt.

Некоторые оптимизаторы, которые продвигаются под Google, создают целые сетки сайтов для ссылочного продвижения других проектов, они называются сателлитами. Такие сайты легко могут получить санкции, поэтому развивайте сетки, если понимаете, как работает такое продвижение.

Социтирование (Co-citation linking filter)

Накладывается за некачественные доноры или несоответствие тематик донора и акцептора. Если на ваш сайт ссылается ресурс несвязанной тематики, Google переопределяет тематику вашего сайта и сильно понижает в выдаче по основным ключам. Размещайте ссылки только на ресурсах той же или смежной тематики.

«Социтирование» также затрагивает и исходящие ссылки. Принципы алгоритма описали Search Engine Watch:

  • Влияние ссылки распространяется не только от донора к акцептору, но и в обратном направлении.
  • Исходящие ссылки тоже важны, они помогают пользователям и делают работу с сайтом удобнее.
  • Исходящие ссылки должны идти на качественные сайты. Ссылки на некачественный домен дают плохое соседство и могут вредить.

Как снять:

Не ссылайтесь на сомнительные и некачественные сайты. Проведите ревизию входящих ссылок, если ссылки с нетематических сайтов арендованные — удалите их. Если вечные — составьте список ссылок в TXT-файл и загрузите его в Disavow Tool. Google перестанет учитывать эти ссылки при индексации сайта, и через некоторое время фильтр будет снят.

Дополнительные результаты

Дополнительный индекс называют «Supplemental results», есть жаргонное название «сопли Гугла» из-за схожести по звучанию. Результаты находятся под ссылкой «Показать скрытые результаты». Нельзя сказать, что этот фильтр наказывает страницы санкциями за копипаст или плохое качество. Страницы с повторяющимся контентом могут попасть под «Показать скрытые результаты», но по другим запросам вполне могут выводиться в основном списке выдачи.

Раньше считалось, что его получают сайты с:

  • большим количеством неоригинального контента в рамках всех сайтов, находящихся в индексе Google, и внутри самого сайта;
  • большим количеством страниц на сайте, которые дублируют друг друга;
  • слабой внутренней перелинковкой.

Результат — отсутствие сайта в основном поиске Google. Увидеть сайт можно будет только по ссылке «Показать скрытые результаты»:

-30, -5, -950

Поисковик не объявлял об этих фильтрах официально, но некоторые оптимизаторы выделяли их влияние на сайты с «черными» методами продвижения:

  • дорвеи;
  • ссылочный спам;
  • JavaScript-редиректы;
  • клоакинг.

При обнаружении этих методов некоторые оптимизаторы заметили, что Google понижает позиции сайта примерно на 30 или на пять пунктов по большинству запросов, или отправляет на последние места в сотне.

Используйте только честные способы продвижения и делайте контент для людей, а не поисковых машин.

Переоптимизация (Over Optimization)

Фильтр накладывается за спам ключевиками, переоптимизацию мета-тегов и изображений. Сейчас он входит в алгоритм «Панда», который отвечает за контент.

В зависимости от степени нарушения, он пессимизирует сайт в выдаче или полностью исключает его из индекса. Можно наблюдать резкое падение трафика и позиций.

Как снять санкции:

Устраните избыточные вхождения ключевых слов:

  • в текстах. Процент ключевиков не должен превышать 7-8% от общего объема текста. Оптимальным будет показатель 4-5%. Проверить это можно в нашем Анализе сайтов, раздел «Оптимизация», пункт «Тошнота», не злоупотребляйте тегами b, strong, em, i;
  • в заголовках h1-h6;
  • в мета-тегах;
  • в Alt и Title изображений.

Ручные санкции Google

Помимо алгоритмов у Google есть ряд санкций, которые накладываются вручную. Их накладывают на страницы сайта или на ресурс целиком. Если на веб-страницах сотрудники поисковика обнаруживают те или иные нарушения, они могут понизить рейтинг сайта в результатах поиска или вовсе убрать из выдачи. Тогда веб-мастер получит оповещение с причиной штрафа.

Информация о ручных санкциях Google есть в рекомендациях по обеспечению качества сайтов. Каждый из фильтров, которые были наложены вручную на ваш сайт, а также причины их наложения, список затронутых разделов сайта и способы их решения можно найти на странице «Меры, принятые вручную» в Google Search Console. Здесь же можно отправить запрос на повторную проверку, когда устраните указанные недочеты на сайте.

Как снять ручные санкции Google:

  1. Понять, в чем причина и прочитать справку по конкретным санкциям.
  2. Устранить проблемы на каждой странице, где они есть. Решение проблем только на части страниц не поможет.
  3. Удостовериться, что страницы доступны для роботов поисковика: нет авторизации и платной подписки, нет блока в robots.txt и директивы «noindex».
  4. Запросить проверку в отчете.

Разберем подробнее ручные санкции Google.

Спам в микроразметке

Действует с марта 2015 года и применяется алгоритмически и вручную за нарушения в разметке структурированных данных — Schema.org. Когда поисковик накладывает этот фильтр, владельцу сайта приходит сообщение в Google Search Console о том, что он разместил в микроразметке:

  • контент, скрытый от пользователей;
  • продвигающий нерелевантный контент;
  • содержимое, которое нарушает требования к качеству (англ).

Проявляет себя пропаданием из выдачи всех расширенных сниппетов сайта и проблемами с индексацией размеченного контента, которые можно отследить в отчете «Структурированные данные» в Search Console.

Как снять:

  • Убедитесь, что микроразметка на страницах соответствует основным требованиям Google к качеству сайтов. С основными требованиями поисковой системы можно ознакомиться в справке Google по структурированным данным;
  • Проанализируйте статистику отчёта «Структурированные данные» в Search Console. Все проблемные страницы проверьте инструментом Structured Data Testing Tool от Google. Устраните обнаруженные ошибки;

Отчет теста Structured Data Testing Tool

  • Если на сайте применяется формат микроразметки JSON-LD, то используйте JSON-LD Playground tool для проверки кода. Подробнее о JSON-LD — в справке Яндекса;
  • Ручные санкции Google снимает также только вручную. После устранения ошибок подайте заявку в службу поддержки веб-мастеров Google на повторное рассмотрение. Подробности о процедуре подачи заявки в справке Google. Срок рассмотрения заявки, в среднем, составляет около недели.

Взлом сайта

Это сообщение отображается в Search Console в разделе»Меры, принятые вручную» или «Проблемы безопасности», если поисковик обнаружит на сайте взломанные страницы.

В SERP у сайта появится пометка о взломе, а позиции в выдаче будут понижены:

Как снять:

  1. О том, что делать, если ваш сайт взломан, читайте на этой странице в справке Google. Также ознакомьтесь с кейсом о взломанном и успешно возвращенном законному владельцу сайте;
  2. После устранения проблем отправьте в Google запрос на повторную проверку. Отслеживать статус запроса можно в аккаунте Search Console. После того, как сотрудники поисковика убедятся в отсутствии проблем с сайтом, уведомление о взломе будет убрано, а фильтр снят.

Сервисы бесплатного хостинга, распространяющие спам

Обычно Google пессимизирует или удаляет из выдачи только отдельные спамные страницы и сайты. Однако если на хостинге таких страниц и сайтов много, он может получить ручные санкции целиком.

Как снять:

  1. Ознакомьтесь с рекомендациями Google о том, как защититься от спамеров;
  2. Удалите все существующие аккаунты в вашем сервисе, которые содержат спам;
  3. Отправьте Google запрос о повторной проверке, и, если нарушений нет, санкции будут сняты.

Искусственные ссылки на сайт

Санкция начинается с получения сообщения в Google Search Console о том, что ваш сайт подозревается в использовании искусственных входящих ссылок. Меры наказания приводят к падению трафика и позиций в Google. Снимаются также, как и ручные санкции за «Пингвин».

Как снять:

Снимается фильтр аналогично «Пингвину», после этого нужно запросить проверку в отчете о мерах, принятых вручную.

Искусственные ссылки с сайта

Эти ручные меры накладываются в случае обнаружения поисковиком ссылок на вашем сайте, которые были размещены для влияния на позиции в выдаче.

Эффект от применения этой санкции: ссылки перестают передавать вес, сам сайт понижается в поисковой выдаче, а страницы выпадают из индекса.

Как снять:

  1. Удалите все нетематические ссылки на сайте, либо закройте их атрибутом rel=nofollow, либо настройте переадресацию на страницу, заблокированную в файле robots.txt;
  2. Отправьте Google запрос о повторной проверке, и, если нарушений нет, санкции будут сняты.

Спам, созданный пользователями

Применяется к сайтам, на которых обнаружен спам пользователей в комментариях, блогах, на форумах, обсуждениях и в личных профилях. Google может выкинуть из индекса как отдельные страницы, так весь сайт.

Как снять:

  1. Выявите и удалите:
    — сообщения и профили, которые похожи на рекламу;
    — сообщения и профили со ссылками не по теме;
    — сообщения и профили пользователей с ненастоящими именами, и ссылками на посторонние сайты;
    — сообщения и профили, предположительно сгенерированные автоматически, а не созданные людьми;
    — спам на страницах сайта. Для этого введите в строку поиска Google оператор site:название сайта + запрос, не имеющий отношения к вашему основному контенту. Пример: site:pr-cy.ru купить слона.
  2. Отправьте Google запрос о повторной проверке, и, если нарушений нет, санкции будут сняты.

Скрытый текст и/или избыточное количество ключевых слов

Санкция накладывается, если на страницах вашего сайта есть скрытый текст или избыточное количество ключевых слов. Фильтр приводит к выпадению отдельных страниц или всего сайта из поисковой выдачи.

Как снять:

  1. Используйте инструмент Просмотреть как Googlebot в Search Console, чтобы проверить наличие контента, который виден только поисковому роботу, но не пользователям сайта;
  2. Убедитесь, что на страницах нет текста такого же цвета, как фон;
  3. Проверьте, нет ли на страницах текста, скрытого с помощью CSS.
  4. Удалите весь подобный текст или измените его так, чтобы он был виден и пользователям, и поисковому роботу;
  5. Устраните избыточные вхождения ключевых слов, аналогично тому, как это делается при наложении «Переоптимизации»;
  6. Отправьте Google запрос о повторной проверке, и, если нарушений нет, санкции будут сняты.

Маскировка и/или скрытая переадресация

Применяется, если пользователям вашего сайта показываются не те страницы, которые видят роботы Google, или если происходит переадресация пользователей на страницу, которая недоступна для поискового робота.

Внимание! Для контента с платным доступом используйте специальную микроразметку. В противном случае Google может расценить такой контент как замаскированный.

Как снять:

  1. Используйте инструмент Просмотреть как Googlebot в Search Console, чтобы проверить наличие контента, который виден только поисковому роботу, но не пользователям сайта;
  2. Убедитесь, что на страницах нет текста такого же цвета, как фон;
  3. Проверьте, нет ли на страницах текста, скрытого с помощью CSS;
  4. Удалите весь подобный текст или измените его так, чтобы он был виден и пользователям, и поисковому роботу;
  5. Проверьте наличие и удалите с сайта все перенаправления по JavaScript;
  6. Отправьте Google запрос о повторной проверке, и, если нарушений нет, санкции будут сняты.

Скрытая переадресация для мобильных пользователей — тоже нарушение, за которое последуют ручные меры. К примеру, если пользователь с детсктопа переходит по ссылке на один сайт, а с мобильного по этой же ссылке ему открывается другой ресурс.

Как снять:

  1. Уберите переадресацию.
  2. Проверьте, на всех ли страницах решена проблема.
  3. Когда скрытой переадресации не будет ни на одной странице, запросите проверку.

Если переадресацию настраивали не вы, а взломщики, проверьте статус сайта через отчет Проблемы безопасности. Убедитесь, что на сайте нет сторонних скриптов: поочередно удаляйте скрипты и проверяйте страницы с мобильного или через эмулятор.

Замаскированные изображения

Накладывается, если изображения в результатах поиска Google по вашему сайту не соответствуют изображениям, которые на нем размещены. Такие изображения будут удалены из поиска по картинкам.

Примеры маскировки изображений:

  • Размещение в Google изображений, которые закрыты другим элементом, например текстовым блоком.
  • Использование решений, которые показывают поисковому роботу и посетителям разные картинки.
  • Переадресация пользователей по ссылке «Просмотреть изображение» в результатах поиска, на страницу, которая не содержит нужный графический файл.

Как снять:

  1. Настройте сайт так, чтобы пользователям показывались одни и те же изображения на веб-страницах и в результатах поиска. Иногда маскировка связана с использованием инструментов, которые блокируют вставку прямых ссылок. Чтобы обнаружить такие неполадки, просмотрите код сервера и плагины на сайте.
  2. Отправьте Google запрос о повторной проверке, и, если нарушений нет, санкции будут сняты.

Агрессивный спам

Применяется к сайтам, если есть признаки агрессивного спама: публикация автоматически созданного бессмысленного текста, ворованного или замаскированного контента. Фильтр приводит к выпадению отдельных страниц или всего сайта из поисковой выдачи.

Как снять:

  1. Удалите контент, который нарушает рекомендации Google для веб-мастеров;
  2. Отправьте Google запрос о повторной проверке, и, если нарушений нет, санкции будут сняты.

Неинформативное бесполезное содержание

Применяется, если на вашем сайте обнаружены некачественные страницы или мало оригинального контента:

  • Автоматически созданный контент;
  • Бесполезные партнерские страницы;
  • Плагиат;
  • Дорвеи.

Приводит к выпадению отдельных страниц или всего сайта из поисковой выдачи.

Как снять:

  1. Проверьте, не дублирует ли контент на вашем сайте другие материалы в Интернете;
  2. Проверьте страницы с партнерскими ссылками на информативность;
  3. Убедитесь, что на сайте нет дорвеев и автоматически сгенерированных страниц;
  4. Удалите такой контент или измените его, чтобы сделать полезным для пользователей;
  5. Отправьте Google запрос о повторной проверке, и, если нарушений нет, санкции будут сняты.

Несоответствие AMP-версии канонической

Если вы используете AMP-страницы, то на канонической и AMP должно быть одно и то же содержание. Различия в формулировках текста допускаются, но тема страницы и функции должны быть одинаковыми. В противном случае поисковик может принять меры: вместо ускоренных страниц будут доступны канонические.

Как снять:

  1. Устраните нарушение: AMP-страница должна ссылаться на соответствующую каноническую, а их содержание совпадать.
  2. С помощью инструмента проверки URL убедитесь, что страницы выглядят одинаково для пользователей и ботов.
  3. Проверьте файл robots.txt: если на одной из них файл блокирует важные ресурсы, будет несоответствие.
  4. Запросите проверку.

Идеальный вариант — сразу выстраивать работу по продвижению и оптимизации так, чтобы не нарушать правила и не попадать под санкции. Для этого нужно следить за обновлениями у поисковиков и не пытаться их обмануть.

Во второй части статьи расскажем о фильтрах Яндекса и способах их избежать.

Disavow links или как определить под каким фильтром Гугла (Панда или Пингвин) находится сайт

You are using an outdated browser. Please upgrade your browser.

By signing up, you agree to our Terms of Service and Privacy Policy.

Есть достаточное количество причин, по которым сайт может попасть под фильтры поисковой системы Google . Это, к примеру, агрессивная реклама на сайте, переоптимизация контента или низкое качество ресурса в целом. Но это еще не весь список. Как определить, что Ваш сайт находится под фильтрами, рассмотрим далее.

Появление новых алгоритмов поисковых систем в большинстве случаев просто пугает веб-мастеров. Так, например, Ваш сайт может агрессивно восприниматься поисковыми системами, если:

  • имеется контент замаскированный под гостевой спам;
  • большое количество сео-анкоров;
  • неуникальный контент;
  • есть спамные рассылки в блоках и комментариях;
  • есть скрытые от пользователей ссылки и другое.

В случае попадания ресурса под санкции поисковика, могут быть полностью утеряны позиции сайта в системе, а это означает, что вся работа, которая проводилась до этого попросту будет утрачена. Согласитесь, что такой судьбы для своего онлайн-проекта не желает ни один веб-мастер.

Как распознать, что Ваш сайт находится под фильтром поисковых систем?

О некоторых наложенных фильтрах поисковая система сообщает официально в разделе Google Webmaster Tools. Эти сообщения означают, что к Вашему сайту были приняты меры, из-за возможных нарушений:

  • наличие исскуственных ссылок на Ваш онлайн-проект;
  • присутствуют исскуственные ссылки на Вашем сайте;
  • Ваш ресурс взломан;
  • спам и спам от пользователей;
  • скрытая переадресация;
  • избыточное количество ключевиков или скрытый текст на сайте;
  • бесплатный хостинг, который распростаняет спам.

Но какие сайты “любит” Гугл? Подробнее рассмотрено зде с ь .

Рассмотрим каждый из фильтров и то, как выйти из под его действия.

Этот фильтр накладывается на молодые сайты до 1 года. В данный период поисковая система следит за тем, как ведет себя сайт. Проверить наличие фильтра легко – сайт отсутствует в индексе. Попадание “песочницу” может произойти из-за быстрого наращивания ссылочной масы, это кажется Google очень подозрительным и он налаживает санкции на молодой ресурс, ведь подобное поведение расценивается как спам.

Для того, чтобы не попасть под данный фильтр, закупать ссылки нужно очень осторожно, ни в коем случае не допускать “ссылочного взрыва” и наполнять сайт уникальным полезным контентом. Акуратно выбирайте доноров сайта, чтобы не допустить попадания в “песочницу”.

Фильтр Domain name age (возраст домена).

Этот фильтр также налаживается на молодые сайты, которым меньше года. Но ограничения снимаются, когда домен сайта достигает определенного уровня траста. Чтобы избежать фильтра, можно купить старый домен с положительной историей или же закупать трастовые ссылки, но очень акуратно.

Фильтр “Too many links at once” (много ссылок сразу).

Когда налаживается данный фильтр, веб-мастер замечает резкое падения трафика с Гугл, а внешние ссылки на ресурс уже не имеют никакого веса. Это случается из-за резкого ссылочного взрыва, поисковая система считает это неестественным и применяет санкции к сайту.

Если Ваш сайт попал под данный фильтр, то Вам следует значительно снизить наращивание ссылок, а те, что уже есть, не нужно трогать. Через 1-3 месяца фильтр будет снят.

Наказанию подвергается не весь сайт, а отдельные его страницы, которые поисковик воспринял как спамные. Причина: фильтр наказывает сайт, на который ведут много внешних ссылок с одинаковым анкором или текстом. Поисковая система считает это не натуральным. Для того, чтобы избавиться от этого, необходимо или удалить все ссылки или поменять анкоры, а далее просто ждать результата.

Фильтр “Битые ссылки”.

Этот фильтр накладывается на сайты, которые имеют много страниц с 404 ошибкой. Эти ссылки раздражают не только посетителей сайта, но и поисковую систему, которая не может проиндексировать данную страницу. Поэтому удаляйте битые ссылки, чтобы не попасть под фильтр.

Ранее между веб-мастерами было популярно обмениваться ссылками, но сегодня Гугл наказывает за такие обмены. Поэтому ставьте не более 4 ссылок на сайты-партнеров, а если все-таки попали под фильтров, то подобные ссылки необходимо убрать с сайта немедленно.

Фильтр “Page load time” (время загрузки страницы).

Google не любит сайты, которые имеют низкую скорость загрузки сайта. Поэтому он может понизить ресурс в выдаче именно по этой причине. Рекомендовано, чтобы скорость загрузки сайта не превышала 7 секунд, чем быстрее – тем лучше. Это параметр можно проверить с помощью специального сервиса – PageSpeed.

Фильтр “Omitted results” (опущенные результаты).

Действие этого фильтра определяется, когда Ваш сайт отсутствует в результатах основного поиска. Его можно увидеть только когда в поиска открыть скрытые результаты. Данный фильтр налаживается на сайт за дубли и слабую перелинковку страниц.

Если ресурс уже под действием фильтра, необходимо переписать контент сделав его уникальным и улучшить внутреннюю перелинковку.

Данный метод санкций был создан для борьбы с “черным сео”. Если фильтр наложен, позиции сайта понижаются на -30. За что наказывает фильтр: скрытый редирект, клоакинг, дорвеи. Если причины устранены, фильтр прекращает свое действие.

Сайт может понизится в выдаче или полностью исключиться с индекса. Все это действие данного фильтра. Он может быть наложен из-за чрезмерной оптимизации страниц, например, перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок. Чтобы фильтр прекратил действие на Ваш сайт, необходимо правильно оптимизировать страницы сайта.

Один из самых опасных фильтров. Он охватывает несколько сразу фильтров и для того, чтобы из-под него выйти необходимо много времени и сил. Это фильтр может быть наложен по многим причинам, среди которых: дублирующийся контент, чрезмерная оптимизация, продажа ссылок или агрессивная реклама на сайте, накрутка поведенческих факторов. Для того, чтобы выйти из-под его действия, необходимо проделать целый комплекс действий нацеленных на улучшения сайта. Это может занять достаточно много времени, в некоторых случаях до 1,5 года.

Также как и предыдущий фильтр является очень проблемным для владельца сайта. Алгоритм имеет непосредственное отношение к ссылочному продвижению. Санкции могут настигнуть Ваш онлайн-ресурс, если Вы закупаете слишком большое количество ссылок за раз; если эти ссылки имеют один и тот же анкор; если ссылки являются не тематическими или вы производите обмен ссылками. Выйти из-под “Пингвина” очень сложно, этот процесс также является долговременным.

Кстати, более подробно фильтры “Панда” и “Пингвин” описаны в моей статье “ Три алгоритма Google обновления, которых «ждут» все SEO-шники ”.

Фильтры поисковых систем: чек-лист для диагностики санкций «Яндекса» и Google

Время чтения: 35 минут Нет времени читать? Нет времени?

Когда-то фильтры считались условной болезнью сайта, которая требует лечения. Например, из-за массовой покупки ссылок администратором сайт болеет: получает фильтр «Пингвин». Болезнь лечится таблетками: удалением купленных ссылок.

Этот подход к пенальти потерял актуальность несколько лет назад. Фильтры стали частью алгоритмов поисковиков. Поэтому пенальти не развиваются как явная и острая болезнь. Фильтры скорее работают как хроническое заболевание: они отравляют ресурс, мешают ему раскрыть потенциал. Симптомы алгоритмических санкций стертые, поэтому определить болезнь с первого взгляда сложно.

Google прямо не сообщает об алгоритмических санкциях, поэтому фильтры приходится диагностировать по косвенным признакам. Пенальти больше не лечатся одной таблеткой. Чтобы избавиться от хронических недугов, владельцу сайта надо не просто удалять спамные ссылки или переписывать SEO-тексты.

Нужно пересматривать маркетинговую стратегию: создавать ценность для аудитории, а не манипулировать выдачей. Золотое правило медицины работает и в поисковом маркетинге. Ложка профилактики заменяет бочку лекарств, а правильный подход к развитию сайта предупреждает пенальти от поисковиков.

Как проверить, есть ли на вашем сайте фильтр «Яндекса» или Google

Владелец сайта или маркетолог должен задуматься о санкциях поисковых систем в тот момент, когда замечает любые негативные аномалии в метриках эффективности сайта. Конкретные признаки могут быть такими:

  • Существенное падение естественного поискового трафика.
  • Резкое снижение позиций сайта в выдаче.
  • Выпадение отдельных страниц или всего ресурса в дополнительный индекс.
  • Полное выпадение сайта или отдельных страниц из индекса.
  • Новые страницы сайта не попадают в индекс.
  • Низкие позиции ресурса в выдаче по витальным вопросам. Например, если по запросу «фирма рога и копыта екатеринбург» сайт компании отображается не на первом, а на тридцатом месте, нужно думать о санкциях.

Как проверить фильтры «Яндекса» и Google

Чтобы подтвердить санкции «поисковиков», используйте следующие инструменты:

Search Console Google и «Яндекс.Вебмастер»

В меню «Поисковый трафик – меры, принятые вручную» можно найти информацию о ручных санкциях.

С помощью инструментов для вебмастеров можно проверить число страниц в индексе поисковых систем. Также с помощью «Вебмастера» и Search Console можно узнать о проблемах, которые могут стать причиной санкций или снижения эффективности сайта. В «Вебмастере» обратите внимание на раздел «Диагностика». В Search Console полезные сведения есть в разделах «Вид в поиске», «Поисковый трафик», «Индекс Google», «Сканирование».

Обратите внимание на следующие сигналы, которые косвенно предупреждают о пенальти поисковых систем:

  • Проблемы с адаптацией к мобильному трафику. Сообщения появятся в разделе «Поисковый трафик – Удобство просмотра на мобильных» в Search Console и «Диагностика сайта» в «Вебмастере».
  • Проблемы с безопасностью, например, вредоносное ПО на сайте. Информация появится в разделах «Сканирование – Проблемы безопасности» Search Console и «Диагностика – Безопасность и нарушения» «Вебмастера».
  • Большое количество спам-ссылок. Увидеть неестественные входящие ссылки можно в разделах «Поисковый трафик – Ссылки на ваш сайт» Search Console и «Ссылки – Внешние ссылки» «Вебмастера».

Обращайте внимание на другие сообщения и рекомендации в Search Console и «Вебмастере». В панелях для вебмастеров можно получить данные о большинстве проблем и нарушений, которые приводят к санкциям или просто снижают эффективность ресурса в поиске.

Существуют сервисы диагностики фильтров поисковых систем. Отношусь к ним скептически, так как Google и «Яндекс» не предоставляют сторонним разработчикам информацию об алгоритмах и алгоритмических фильтрах. Тем не менее по желанию можете использовать сервисы для комплексной диагностики сайта.

Диагностика санкций SEOLib

Этот инструмент позволяет отслеживать трафик в контексте обновлений алгоритмов «Яндекса» и Google.

Panguin SEO Tool

Инструмент помогает отслеживать влияние изменений алгоритмов Google на трафик.

История обновлений алгоритма Google от MOZ

С помощью инструмента можно сопоставить изменения трафика со сменами алгоритма Google.

Проверка фильтров Google от Fruition

Бесплатный план позволяет отслеживать фильтры Google на двух сайтах.

SEMRush Sensor

Сервис помогает следить за изменениями алгоритмов Google, отслеживать позиции в выдаче.

Для мониторинга изменений алгоритмов и динамики трафика можно использовать и другие сервисы, например, Rank Ranger, AccuRanker. Также за изменениями алгоритмов и новыми фильтрами удобно следить на «Сёрче». Зашкаливающий уровень отчаяния и скепсиса на ветках, посвященных «Яндексу» и Google, точно подтверждает серьезные изменения алгоритмов и появление новых фильтров.

Если с посещаемостью сайта что-то не так, подумайте о возможных причинах. Оцените соответствие маркетинговой стратегии правилам поисковых систем. Могут ли какие-то методы продвижения стать причиной алгоритмических санкций? Загляните в системы веб-аналитики. При желании и наличии времени воспользуйтесь предложенными альтернативными инструментами и почитайте профильные ветки на «Сёрче».

Какие бывают фильтры поисковых систем

Фильтры можно классифицировать по разным признакам:


  • По поисковым системам: фильтры Google и «Яндекса».
  • По способу применения: ручные и алгоритмические. Алгоритмические пенальти срабатывают, если роботы обнаруживают явное нарушение требований поисковых систем с целью манипуляции выдачей. Ручные санкции включают сотрудники поисковых систем. Это случается, когда алгоритм фиксирует подозрительные признаки, которых недостаточно для однозначной диагностики нарушений. В этом случае робот сообщает о ресурсе живому коллеге, который диагностирует манипуляции вручную.
  • По причинам санкций: фильтры за манипуляцию выдачей и несоответствие ресурса требованиям поисковиков. В свою очередь, пенальти за манипуляцию можно объединить в такие группы: текстовый спам, манипуляции ссылками, накрутка поведенческих факторов, черное SEO или сайты не для людей (дорвеи, клоакинг, невидимый текст и т.п.). Санкции за техническое несоответствие можно получить из-за таких недостатков: отсутствие адаптации под мобильный трафик, медленная загрузка сайта, отсутствие полезного уникального контента, проблемы с функциональностью, дизайном и юзабилити, мошенничество, тематика публикаций, дублирующийся контент.

Наш генеральный директор Денис Савельев объединяет фильтры в группы по способу манипуляции выдачей:

  1. Текстовые фильтры, некачественная информация: «Баден-Баден», Panda.
  2. Манипуляция ссылками: «Минусинск», «Пингвин».
  3. Некачественные сайты или сайты не для людей: АГС, Panda.
  4. Накрутка поведенческих: фильтр за поведенческие манипуляции в «Яндексе».

По словам Дениса Савельева, эта классификация интересна для понимания истории фильтров. Сейчас по большому счету все фильтры можно объединить в две группы:

  1. Фильтры за некачественные сайты и контент.
  2. Фильтры за манипуляцию ссылками.

Подробности узнаете из обучающего видео «История фильтров поисковых систем».

Когда-то специалисты по поисковому маркетингу классифицировали санкции по проявлениям или последствиям для сайта. В рамках данной типологии выделяли пред- и постфильтры, фильтры перед выдачей и исключение ресурсов из индекса. Практическая ценность этого подхода к классификации ограничена, так как автоматические санкции стали частью поискового алгоритма.

Еще раз обратите внимание, большая часть программных санкций «Яндекса» и Google представляют собой части поискового алгоритма. С практической точки зрения это значит, что фильтры появились не для того, чтобы наказать сайт компании по производству пластиковых окон из Тулы и завода металлоконструкций из Санкт-Петербурга. Они существуют, чтобы улучшать качество поисковой выдачи. Поэтому владельцам сайтов и маркетологам необходимо постоянно держать в уме два тезиса.

Первый: сайты получают санкции из-за попыток обмануть поисковики, поэтому можно легко избежать пенальти на этапе планирования маркетинга. И второй: если вы уже получили санкции, лучше и дешевле поменять подход к маркетингу, чем постоянно бороться с последствиями неправильно выбранных способов продвижения.

Ниже вы найдете описание конкретных фильтров, классифицированных по поисковым системам.

Фильтры Google

Крупнейшая в мире поисковая система Google вынужденно стала чемпионом в борьбе с манипуляциями. А обаятельный руководитель отдела по противодействию поисковому спаму этой компании Мэтт Каттс превратился в страшный сон для накрутчиков. Google успешнее всего борется с черным SEO в англоязычном сегменте Сети. Однако если вы хотите продвигать нечестными способами русскоязычный сайт, приготовьтесь столкнуться с одной из перечисленных ниже проблем.

UPD: По состоянию на 2020 год Мэтт Каттс работает в правительственных структурах США. Но интернет-маркетологи помнят его за вклад в борьбу с поисковым спамом.

1. Google Panda

«Панда» – часть поискового алгоритма Google, отвечающая за качество сайтов в целом и контента в частности. Фильтр лишает трафика некачественные сайты, что способствует перераспределению посещений в пользу качественных ресурсов. Google Panda оценивает ресурсы по следующим критериям:

  • Качество контента. Как робот определяет качественное и некачественное содержимое? Это вопрос даже не отдельной статьи, а целой книги или диссертации. Достоверно известно, что кроме роботов в оценке контента принимают участие асессоры Google. Также известно, что поисковик косвенно оценивает качество сайта по удовлетворенности пользователей. Кстати, вы давно анализировали поведенческие метрики эффективности ресурса?
  • Дублированный контент. Если на сайте есть практически одинаковые страницы, заточенные под запросы «заказать окна ПВХ» и «заказать пластиковые окна», вам угрожает Panda. Обратите внимание, «Панде» не нравятся не сами дубли, а отсутствие дополнительной информационной ценности.
  • Ворованный контент. Panda мгновенно не загрызет вас за публикацию неуникального контента. Но при прочих равных условиях в поиске выигрывают сайты-первоисточники. Обратите внимание на наши публикации на тему уникального контента: «Развенчание мифа об уникальности», «Медленная гибель уникального контента», «Действительно ли важна уникальность», «Что такое сайты-агрегаторы».
  • Отношение владельца сайта к пользователям. В этот пункт можно включить следующие критерии: проблемы с функциональностью, юзабилити и дизайном сайта, избыточное количество и некорректное расположение рекламы. Например, «Панда» может наказать ресурс, если вы на первом экране публикуете рекламные блоки, а контент прячете в нижней части страницы. Можно получить пенальти из-за нечитабельности контента.

Как определить, что сайт попал под фильтр Google Panda? Обратите внимание на следующие признаки:

  • Падение естественного трафика из Google.
  • Падение позиций сайта в выдаче. Под влиянием «Панды» могут падать позиции всех или некоторых страниц ресурса. Значительная доля страниц может выпасть в дополнительный индекс.
  • Медленное индексирование новых страниц.

Как вывести ресурс из-под фильтра Google Panda

Если сайт лишился значительной доли трафика из-за «Панды», пересмотрите маркетинговую стратегию. Необходимо в сжатые сроки значительно повысить качество ресурса. Также следует отказаться от любых попыток манипулировать выдачей. Уделите внимание следующим моментам:

  • Проведите аудит сайта. Убедитесь, что его функциональность и дизайн соответствуют нуждам аудитории. Решите проблему дублирующегося контента. Используйте канонические URL, закройте от индексации страницы рубрик и категорий. Если сайт работает на CMS WordPress, решите эту задачу с помощью SEO-плагинов.
  • Замените некачественный контент на качественный.
  • Если на сайте есть недостаточно информативные страницы, исправьте ситуацию. Например, если на страницах товаров интернет-магазина нет описаний, добавьте их.
  • Регулярно публикуйте на сайте полезный для аудитории контент.

В перерывах между работой по повышению качества ресурса ознакомьтесь с полезными материалами о «Панде»:

2. Google Penguin

«Пингвин» – компонент поискового алгоритма Google, который борется с манипулятивным линкбилдингом. В это понятие входят практически все искусственные способы наращивания внешней ссылочной массы: покупка бэклинков, ссылочный спам на форумах и в блогах, публикация ссылок на связанных ресурсах, спам, замаскированный под гостевой постинг, избыточное использование SEO-анкоров, публикация невидимых для пользователей ссылок.

UPD: С осени 2020 года Penguin стал частью алгоритма Google. Он работает в режиме реального времени. «Пингвин» влияет на конкретные страницы, а не на сайт в целом. Фильтр не наказывает за манипулятивные ссылки, а обнуляет их влияние на выдачу.

Изначально признаки Google Penguin были похожи на признаки описанного выше фильтра за некачественный сайт. К ним относились:

  • Падение естественного поискового трафика. Обычно «Пингвин» приводит к более резкому снижению посещаемости по сравнению с «Пандой». Впрочем, поисковик часто применяет эти санкции одновременно.
  • Появление аномалий после обновления алгоритма Penguin.
  • Сообщение о принятых вручную мерах, связанных с неестественными ссылками, в поисковой консоли Google.
  • Снижение позиций ресурса в выдаче.
  • Медленное индексирование новых страниц.
  • Падение позиций сайта или отсутствие в выдаче по витальным запросам.
  • Выпадение значительной доли страниц в дополнительный индекс или деиндексация страниц.

После обновления осенью 2020 года «Пингвин» не работает как пенальти. То есть он не наказывает сайты, а просто отменяет влияние на ранжирование спам-ссылок.

Как отличить «Пингвина» от «Панды»? Практического смысла в таком анализе нет, так как оба фильтра стали частью одного алгоритма.

В теории вы можете проанализировать методы маркетинга проекта и сделать выводы. Например, если вы всегда публикуете качественный контент, но пользуетесь манипулятивным линкбилдингом, скорее всего, на сайт заглядывает Google Penguin. Если вы покупаете ссылки и публикуете на сайте рерайт с уникальностью 89,8 %, к вам в гости пришли «Пингвин» и «Панда» одновременно.

Как вывести ресурс из-под фильтра Google Penguin

Чтобы защититься от «Пингвина», необходимо удалить или отклонить некачественные ссылки, а также изменить маркетинговую стратегию сайта. Выполните следующие действия:

  • Постарайтесь удалить как можно больше спам-ссылок на ваш сайт.
  • Воспользуйтесь инструментом отклонения, чтобы обнулить вес ссылок, которые не удается отклонить.
  • Публикуйте качественный и полезный контент, чтобы получать естественные ссылки с авторитетных ресурсов.

UPD: Предложенные рекомендации по удалению ссылок остались актуальными даже после обновления «Пингвина» осенью 2020 года. Если бы речь шла только о Google Penguin, спам-ссылки можно было бы не удалять. Поисковик их сам отфильтрует без негативных последствий для сайта. Но есть ручные санкции, которые асессоры могут применить в том числе из-за спам-ссылок.

Почитайте полезные материалы о «Пингвине»:

Далее описаны фильтры, которые когда-то существовали отдельно, но стали частью алгоритма Google. Описания интересны скорее с исторической точки зрения, чем с практической.

3. Песочница и возраст домена

Это условные фильтры или части поискового алгоритма, ограничивающие посещаемость недавно созданных сайтов. Точно неизвестно, существуют ли такие фильтры. Подробнее об этом пишет Денис Савельев.

К симптомам фильтров относится медленное индексирование ресурса. Как бороться с «Песочницей» и «Возрастом домена»? Не обращайте на них внимания. Лучше сосредоточьтесь на развитии ресурса: создавайте контент, улучшайте юзабилити. Сайт обязательно выйдет из-под этих фильтров без дополнительных усилий с вашей стороны.

4. Google — 5, — 30, — 950

Google официально не подтверждает существование этих фильтров, однако владельцы сайтов и поисковые оптимизаторы не сомневались в их существовании. Симптомом данных пенальти считались необъяснимое падение ресурса в выдаче на пять или 30 позиций, а также ранжирование в девятой сотне выдачи. Фильтр Google — 5 также называли Google № 6, что отражает внезапное снижение позиции ресурса с первой до шестой.

Поисковик наказывал сайты фильтрами со знаком «минус» за манипулятивные тактики продвижения и нарушения технических требований, включая следующие:

  • Использование дорвеев и клоакинга.
  • Ссылочный спам на форумах и в блогосфере.
  • Использование редиректов JavaScript.
  • Неверный выбор стратегии развития: создание сайтов для роботов, а не для людей.

В настоящее время отдельного фильтра со знаком минус не существует. А за дорвеи, клоакинг и го*носайты вебмастеров наказывает алгоритм Google.

5. Дополнительные результаты

Google помещает в дополнительный индекс страницы, которые считает недостаточно качественными и ценными для пользователей. Иными словами, поисковик считает ваш сайт очень похожим на сотни других ресурсов. Также страницы вашего ресурса могут оказаться в supplementary results из-за технических ошибок или попыток манипулировать выдачей. Наконец, в дополнительный индекс могут попадать страницы молодых сайтов.

Симптом этого фильтра — ранжирование сайта в дополнительном, а не основном индексе. Supplementary results можно найти на странице выдачи, кликнув по отмеченной на иллюстрации ссылке.

Как защититься от фильтра «Дополнительные результаты»

Чтобы вывести сайт из supplementary results в основной индекс, соблюдайте три рекомендации:

  • Откажитесь от попыток манипулировать выдачей.
  • Создавайте и публикуйте ценный для пользователей и уникальный контент.
  • Обеспечьте соответствие ресурса техническим требованиям поисковых систем. В частности, закройте от индексации страницы с дублированным контентом.

Олдскульные сеошники называют фильтр supplementary results «соплями» из-за его названия на английском языке.

Существовал похожий на supplementary results фильтр «Опущенные результаты». Поисковик применял его из-за некачественного контента, а также из-за проблем с функциональностью и юзабилити сайта. В частности, под этот фильтр попадали сайты с неудобным меню и внутренней навигацией.

6. Социтирование

О фильтре «социтирование» активно говорили в 2012 и 2013 годах. Одним из первых о нем рассказал Рэнд Фишкин. С помощью «социтирования» Google якобы пессимизировал сайты, «окруженные плохими соседями».

  • Ссылочный сок течет не только от донора к акцептору ссылки, но и в обратном направлении.
  • Трастовые сайты ссылаются на трастовые сайты.
  • Ссылки на ненадежные сайты вредят донору.
  • Авторитет между сайтами передается даже без прямых ссылок. Когда сайт «А» ссылается на сайты «Б» и «В», авторитет ресурса «Б» передается ресурсу «В», а авторитет ресурса «В» влияет на ресурс «Б».
  • Анкоры и текст вокруг ссылок влияют на передачу ссылочного сока.

Как защититься от фильтра «Социтирование»

Не ссылайтесь на сомнительные ресурсы: сайты для взрослых, мошеннические проекты и так далее. Удаляйте или обнуляйте ссылки с сомнительных ресурсов на ваш сайт. Что делать, если какой-то условно нормальный ресурс на одной странице ссылается на вас, а на другой – на PornHub и «МММ»? У меня нет идей, поэтому предлагайте свои в комментариях.

7. Слишком много ссылок и слишком много страниц

Google заподозрит манипуляции, если на сайт сошлется много ресурсов за короткий промежуток времени. Вы также попадете под подозрения, если на сайте появится слишком много страниц за короткий временной отрезок. Для таких случаев крупнейший поисковик в мире использует фильтры Too many links и Too many pages at once. Признаком этого пенальти является резкое падение посещаемости и позиций ресурса в выдаче.

Как защититься от фильтров «Слишком много ссылок и страниц»

Чтобы защититься от санкций, связанных со ссылками, откажитесь от манипулятивного линкбилдинга. Постепенно удалите купленные бэклинки, если вы уже получили пенальти.

UPD: В настоящее время за ссылочным спамом следит «Пингвин», поэтому информация о Too many links интересна только для понимания истории развития фильтров.

Сомневаюсь, что Google использует пенальтирующий алгоритм Too many pages at once. На сайте можно опубликовать 100 или 10 000 страниц одновременно – это не нарушает правила поисковых систем. Другое дело, что такой подход вряд ли целесообразен, так как поисковик будет индексировать страницы постепенно.

8. Фильтр за битые ссылки

Конечно, речь идет не об отдельном фильтре, а о части алгоритма, который отвечает за качество ресурсов. Если на вашем сайте много неработающих ссылок, он находится в зоне риска. Google может лишить его части трафика, а также исключить из индекса некоторые страницы.

Как защититься от фильтра за битые ссылки

Регулярно проверяйте сайт с помощью Link Checker или аналогичного инструмента. Исправляйте неработающие ссылки.

9. Дублированный контент

За дублированный контент отвечает алгоритм, который оценивает качество ресурса: Panda. Вероятно, он лишает сайты-плагиаторы только части трафика. Но в выдаче вторичные ресурсы остаются.

Как защититься от фильтра за дублированный контент

Здесь все очевидно. Удалите ворованный контент или поставьте ссылки на первоисточник. Начните публиковать собственные качественные материалы. Дождитесь повторной индексации сайта.

10. Переоптимизация

Этот фильтр стал частью «Панды», так как переоптимизация снижает качество ресурсов с точки зрения людей и поисковых роботов. Фильтр используется, если на сайте применяются грубые манипуляции:

  • Keyword stuffing.
  • Избыточное использование ключей в title, description, атрибуте alt.
  • Выделение ключевых фраз в тексте полужирным или цветом.

Признаком фильтра является резкое падение трафика и существенное снижение позиций сайта в выдаче.

Как защититься от фильтра за переоптимизацию

Откажитесь от манипулятивных маркетинговых тактик. Думайте о живых посетителях сайта.

11. Фильтр за медленную загрузку страниц

Google лишает трафика ресурсы, не удовлетворяющие пользователей по тем или иным характеристикам. Вероятно, фильтр за медленную загрузку страниц также является частью «Панды». К его симптомам относится падение позиций сайта в выдаче в целом, а также снижение позиций только в мобильной выдаче.

UPD: В январе 2020 Google официально сообщил, что будет учитывать скорость загрузки страниц при ранжировании сайтов в мобильной выдаче. Speed Update начнет работать летом 2020 года.

Как защититься от санкций за медленную загрузку страниц

12. Фильтр за отсутствие оптимизации под мобильный трафик

Это не фильтр в чистом виде, а часть поискового алгоритма, понижающая в мобильной выдаче ресурсы без адаптивной верстки или мобильной версии. Симптомом этого фильтра является падение позиций в выдаче для мобильных гаджетов при сохранении позиций в десктопной выдаче.

В ближайшее время мобильный индекс станет основным. Поэтому адаптация сайта под мобильный трафик – вопрос жизни и смерти ресурса.

Как защититься от санкций за отсутствие оптимизации под мобильный трафик

Используйте адаптивную верстку или мобильную версию сайта. Ознакомьтесь со следующими материалами:

Фильтры «Яндекса»

«Яндекс» остается лидером поискового рынка в рунете, поэтому владельцы сайтов как огня боятся санкций этого поисковика. В свою очередь, «Яндекс» фактически признал бессилие перед манипуляторами, отказавшись от учета внешних ссылок при ранжировании сайтов. Теперь поисковая система обещает жестко реагировать на попытки накрутки поведенческих факторов. С какими пенальти «Яндекса» могут столкнуться недальновидные маркетологи? Читайте ниже.

1. АГС

АГС — это официально подтвержденный и один из самых известных фильтров «Яндекса». Крупнейший поисковик рунета использует его для борьбы с некачественными сайтами. Считается, что аббревиатура «АГС» отражает суть фильтра. Она неофициально расшифровывается так: АнтиГ*вноСайт.

Название «АГС» часто используется с цифрами: АГС-17, -30, 40. Они обозначают версии фильтра. Осенью 2015 года «Яндекс» обновил алгоритм АГС и предложил название без цифры. По данным вебмастеров с «Сёрча», в начале 2020 года АГС работает.

АГС борется с некачественными сайтами, владельцы которых не думают о посетителях и манипулируют поисковой выдачей. Это пенальти получают ресурсы, обладающие следующими признаками:

  • Исходящие SEO-ссылки.
  • Некачественное, неуникальное, неинтересное пользователям содержание. Отсюда следуют низкая посещаемость и отсутствие естественных входящих ссылок.
  • Проблемы с функциональностью, дизайном и юзабилити.
  • Нарушение технических требований «Яндекса»: дубли страниц, агрессивная реклама, клоакинг.

Некоторые специалисты отдельно выделяют фильтр за агрессивную рекламу. Однако для удобства его можно считать частью АГС. Отдельным пенальти или частью АГС можно считать фильтр за неуникальные сниппеты. Этот вид санкций удаляет из SERP результаты с одинаковыми описаниями. Чтобы избежать проблемы, необходимо создавать уникальные описания страниц и публиковать собственный контент.

О фильтре АГС могут сказать следующие симптомы:

  • Значительное число страниц сайта выпадает из индекса.

UPD: последние версии АГС приводят к падению позиций, а не выпадению ресурса из индекса.

  • Обнуление тИЦ.
  • Новые страницы не индексируются или индексируются медленно.
  • Резко падает посещаемость ресурса.

Как восстановить сайт после АГС

Если коротко, необходимо превратить г*вносайт в сайт-конфетку для людей. Воспользуйтесь следующими рекомендациями:

  • Удалите все SEO-ссылки.
  • Обеспечьте техническое соответствие ресурса требованиям поисковика. Используйте канонические URL, закройте от индексации дублирующийся контент.
  • Уделите внимание функциональности и юзабилити ресурса. Позаботьтесь об удобном меню и навигации, удалите агрессивную рекламу, убедитесь, что пользователь может легко найти нужную информацию.
  • Удалите ворованный и некачественный контент.
  • Регулярно публикуйте уникальный и полезный для аудитории контент.
  • После исправления ошибок обратитесь в службу поддержки «Яндекса» с просьбой о пересмотре санкций.
  • Развивайте ресурс и будьте терпеливыми.

Будьте готовы к тому, что вывод ресурса из-под АГС займет месяцы.

2. Фильтр за переоптимизацию «Баден-Баден»

Фильтром за переоптимизацию «Баден-Баден» «Яндекс» наказывает сайты, манипулирующие выдачей с помощью напичкивания текстов ключевыми фразами. Вы не получите трафик и высокие позиции, если на страницах сайта сплошные «купить хомячка в Москве недорого».

С весны 2020 года «Яндекс» борется с текстовой переоптимизацией с помощью фильтра «Баден-Баден». О нем мы написали отдельную статью. Также владельцам сайтов важно знать об алгоритмах «Палех» и «Королёв», которые делают текстовую оптимизацию бессмысленной.

Как защититься от «Баден-Бадена»

Публикуйте тексты для людей, а не для роботов.

— Значит ли это, что вы должны совсем отказаться от ключевых слов?

— Нет. С их помощью вы помогаете пользователям найти необходимую вам информацию.

— В таком случае, с какой частотой использовать «ключи», стоит ли включать их в title или выделять тегами или ?

— Не думайте о частоте употребления или плотности ключей. Лучше постарайтесь как можно глубже погрузиться в тему. Если вы считаете, что естественное употребление «ключа» в title, заголовках или подзаголовках помогает живым читателям, можете выделить слово или фразу соответствующим образом. «Стронгами» или ключи выделять не стоит.

3. Фильтр за накрутку поведенческих метрик

Влияние этого фильтра на формирование поисковой выдачи выросло после отказа «Яндекса» от учета ссылок и повышения роли поведенческих факторов при ранжировании ресурсов. Поисковик был вынужден усовершенствовать модуль и ужесточить наказание за манипуляцию из-за появления и популяризации сервисов эмуляции действий пользователей. Подробнее об этом можно почитать здесь. Официальная позиция «Яндекса» описана здесь.

Наказание за накрутку поведенческих метрик проявляется так:

  • Владелец получает уведомление о нарушении.
  • Наблюдается резкое падение трафика.
  • Фиксируется резкое падение позиций сайта в выдаче или исключение ресурса из выдачи.
  • Отмечается медленное включение в индекс новых страниц.

Как вывести сайт из-под фильтра за накрутку поведенческих

Здесь все очень просто:

  • Прекратите манипулировать выдачей.
  • Попросите прощения у Платона.
  • Сфокусируйтесь на развитии сайта.
  • Наберитесь терпения.

Ждать придется долго, но об этом надо было думать раньше.

4. Минусинск

Если АГС похож на «Панду», то «Минусинск» можно сравнить с Google Penguin. C помощью этого пенальти «Яндекс» наказывает ресурсы за манипулятивный линкбилдинг. Следующие признаки помогут понять, что сайт попал под «Минусинск»:

  • Падение поискового трафика. Подумайте о «Минусинске», если проблемы начались в середине или в конце мая 2015 года.
  • Снижение позиций в выдаче.
  • Отсутствие сайта на первой странице выдачи по витальным запросам или доменному имени.

Обратите внимание, существовавший ранее фильтр за ссылочный бум теперь скорее всего входит в «Минусинск».

Как защититься от Минусинска

Защититься от «Минусинска» труднее, чем от «Пингвина». «Яндекс» не предлагает владельцам сайтов инструмент отклонения ссылок, поэтому придется приложить максимум усилий, чтобы удалить входящие манипулятивные ссылки на сайт. После этого можете обратиться в службу поддержки с покаянием.

Не забудьте пересмотреть маркетинговую стратегию: откажитесь от покупки ссылок. Лучше инвестируйте средства в развитие сайта и контент. Или потратьте деньги на благотворительность.

5. Фильтр аффилиатов

Представьте ситуацию: вы стремитесь монополизировать рынок пластиковых окон в Бобруйске. Чтобы заполучить всех клиентов, вы создаете три ООО: «Хорошие окна», «Качественные окна» и «Хорошие и качественные окна». Все три ООО находятся по одному физическому адресу и пользуются общей производственной базой. Для каждого ООО вы создаете сайт и публикуете на них отличный контент. Если потенциальный клиент вводит в поисковую строку запрос «окна ПВХ в Бобруйске», на первых трех позициях в выдаче он может увидеть ссылки на ваши сайты. Мечта бизнесмена, правда?

Так вот, «Яндексу» это не нравится. Поэтому он оставит в выдаче только один ваш сайт, а остальные позиции отдаст ресурсам, принадлежащим другим собственникам. При этом вы не можете знать, какой из ваших сайтов останется в выдаче.

Фильтр аффилиатов имеет единственный признак: даже если у вас есть 10 отличных ресурсов, релевантных запросу, «поисковик» всегда показывает в выдаче только один ваш сайт.

Как избавиться от фильтра аффилиатов

Не пытайтесь искусственно захватить выдачу. Создавайте разные сайты, если ваши ООО действительно предлагают клиентам разный продукт. Например, вы можете создать фирмы «Элитарные окна», «Нормальные окна» и «Дешевые окна». В этом случае ваши сайты займут первые места по разным запросам: «окна ПВХ», «пластиковые окна недорого» и «пуленепробиваемые окна с золотым профилем, инкрустированные бриллиантами».

6. Непот-фильтр

«Яндекс» создал этот фильтр для борьбы с торговлей ссылок. Его алгоритм вычисляет подозрительные сайты и блокирует передачу «ссылочного сока» через исходящие линки. Значение непот-фильтра уменьшилось после отказа «Яндекса» от учета внешних ссылок при ранжировании ресурса, а также после ужесточения санкций за покупку бэклинков.

Непот-фильтр не влияет на ранжирование сайтов-доноров и акцепторов ссылок. Поэтому достоверно диагностировать это пенальти невозможно. Впрочем, поисковая система не признает само существование этого фильтра.

Как защититься от непот-фильтра

Не торгуйте ссылками. Если вам необходимо сослаться на сомнительный источник, закрывайте линк атрибутом nofollow.

7. Санкции за взрослый контент

Если вы публикуете на сайте материалы категории 18+, «поисковик» лишит ваш сайт трафика по запросам, не относящимся к взрослой тематике. Чтобы избавиться от этого фильтра, не публикуйте adult-контент.

8. Пессимизация за отсутствие адаптации к мобильному трафику и некорректные мобильные редиректы

Если ваш сайт некорректно перенаправляет мобильных пользователей на главную страницу версии ресурса для смартфонов и планшетов, поисковик лишает его высоких позиций в мобильной выдаче. «Яндекс» лишает мобильного трафика сайты, которые неудобно просматривать на экранах смартфонов и планшетов.

Оптимизируйте ресурс под нужды владельцев гаджетов с маленькими экранами.

Чек-лист по фильтрам поисковых систем

Столкнувшись с возможными санкциями поисковых систем, владельцы сайтов часто тратят время зря. Они анализируют симптомы, чтобы определить конкретный фильтр. Это якобы помогает бороться с пенальти и возвращать потерянный трафик или позиции. Если вы придерживаетесь такого подхода, считайте себя настоящим олдскульным сеошником. Поисковые системы мешают нормально жить и работать, придумывая изощренные фильтры и лишая вас заработка, да? Тогда никакой чек-лист не поможет. Поисковики всегда будут идти на шаг впереди, а ваши сайты всегда будут получать новые пенальти.

Этот чек-лист будет полезным для маркетологов, считающих Google и «Яндекс» помощниками, а не соперниками. Вы признаете, что сами виноваты в санкциях поисковых систем? Тогда определите конкретный вид пенальти, исправьте ошибки и двигайтесь дальше.

Что я натворил

Возможные фильтры Google

Возможные фильтры «Яндекс»

Что делать

Купил, обменял, выдурил, незаметно поставил входящие ссылки.

«Пингвин», ручные санкции.

Удалить неестественные входящие ссылки, воспользоваться инструментом отклонения ссылок Google.

Воровал контент, публиковал рерайт или автоматически сгенерированные тексты, не публиковал уникального контента.

АГС, фильтр за дублирующиеся сниппеты.

Удалить ворованный и некачественный контент, публиковать собственные качественные материалы.

Не думал о людях: не обновлял дизайн с 90-х, не уделял внимание юзабилити и функциональности, публиковал рекламу на первом экране, а контент в «портянке».

АГС, фильтр за агрессивную рекламу.

Обеспечить «счастье пользователя».

Не соблюдал технические требования и рекомендации поисковых систем.

«Панда», отсутствие оптимизации под мобильный трафик, пенальти за медленную загрузку.

АГС, фильтр за отсутствие оптимизации к мобильному трафику и некорректные мобильные редиректы.

Привести сайт в соответствие с требованиями поисковиков.

Пичкал в тексты ключевые слова.

Удалить seo-тесты, опубликовать материалы для людей.

Алгоритмические санкции. Скорее всего, Google просто не учитывает накрученные метрики.

Фильтр за накрутку поведенческих.

Прекратить мошенничать. Подумать о своем поведении в течение нескольких месяцев.

Не продавать ссылки.

Публиковал взрослый контент.

Фильтр за взрослый контент.

Фильтр за взрослый контент.

Не публиковать взрослый контент, если ваш сайт не относится к adult-тематике.

Мошенничал по-мелочам: спамил на форумах, использовал клоакинг и дорвеи.

АГС, «Минусинск», алгоритмические санкции за некорректные методы продвижения.

Ничего плохого не делал, но проблемы с поисковым трафиком появились.

«Минусинск», фильтр за накрутку поведенческих.

Если фильтры появились из-за действий недобросовестных конкурентов, обратитесь в службы поддержки поисковых систем. Постарайтесь нивелировать негативные факторы воздействия: ссылки с некачественных сайтов. Если конкуренты используют против вас сервисы накрутки поведенческих факторов, попросите защиту у Платона.

Создал несколько похожих сайтов и пытался монополизировать выдачу.

Развивать один сайт. Создавать отдельные сайты только в том случае, если в этом нуждаются пользователи.

Вы поняли, что быстрее и точнее всего диагностировать фильтры можно по некорректным и манипулятивным способам продвижения, которые вы использовали? Если да, считайте, что уже почти перешли на белую сторону.

Почему не стоит бояться фильтров

«Пингвин», «Панда», АГС, «Минусинск» и другие санкции поисковых систем защищают вас и ваших клиентов от недобросовестных конкурентов, продвигающих ресурсы за счет манипуляций. От тех, кто не может и не хочет развиваться, инвестировать в сайт и предлагать аудитории добавленную стоимость. Получается, вы должны благодарить поисковики за жесткие барьеры на пути манипуляторов.

Как быть, если ваш сайт по тем или иным причинам уже получил пенальти? Во-первых, определите его с помощью чек-листа и исправьте ошибки. Во-вторых, поблагодарите поисковик. «Яндекс» или Google только что абсолютно бесплатно оказали вам услуги маркетингового консалтинга: они указали на проблемы продвижения и наметили путь здорового развития вашего сайта. Выбрав этот путь, вы в конце концов победите.

Кто виноват – Пингвин или Панда?

Если вы заметили снижение трафика на свой сайт из поисковиков (из органической выдачи), то возможно, что ваш сайт попал под действие фильтров поисковых систем, и его позиции в результатах поиска были занижены. Сегодня мы поговорим о поисковике Google и двух его алгоритмах – Гугл Панда и Гугл Пингвин.

Алгоритм Google Panda (Панда) нацелен на повышение качества результатов поиска. Поэтому он занимается оценкой контента сайта – проверяет уникальность текстов, их информативность, наличие добавочной ценности, количество ключевых слов (чтобы не было переспама).
Алгоритм Google Penguin (Пингвин) борется с неестественными внешними ссылками. Такими будут покупные ссылки, ссылки с сайтов-сателлитов и с нерелевантных сайтов.

Шаг первый. Проверяем сообщения от Google

Оказывается, наложить ограничения на сайт могут не только автоматические алгоритмы Гугл, но и самые реальные люди – его сотрудники. Чтобы проверить, нет ли таких ограничений, заходим в Инструменты Google для веб-мастеров, щелкаем по нужному нам сайту и заходим в раздел «Сообщения о сайте» – в этот раздел придет сообщение о наложенных вручную ограничениях. Также посмотреть, приняты ли меры к сайту, можно в разделе «Поисковый трафик» – «Меры, принятые вручную».

Ручные меры могут быть приняты по таким причинам, как искусственные ссылки на ваш сайт (или на вашем сайте), спам, скрытый текст, избыток ключевых слов, неинформативный контент, взломанный сайт.

Устраните причину, указанную в сообщении от Гугл, и отправьте заявку на повторную проверку (с помощью кнопки «Запрос на рассмотрение» в сообщении в разделе «Меры, принятые вручную»).

Если сообщений о ручных мерах нет, переходим к анализу статистики.

Шаг второй. Проверяем трафик из Google

Смотреть статистику посещаемости сайта можно как в Google Analytics, так и в Яндекс.Метрике. Но раз уж сегодня мы говорим об алгоритмах Гугл, то и трафик будем смотреть по статистике Google Analytics. Нас интересует статистика по органическому трафику (переходы из естественных результатов поисковой выдачи, не рекламных).

Заходим в Google Analytics и открываем раздел «Отчеты» для нашего сайта. В меню слева выбираем «Источники трафика» – «Общая информация» – «Источник/Канал». В открывшейся таблице с источниками и каналами трафика отмечаем нужные нам поисковики, именно те, где канал organic (как правило, это «yandex/organic» и «google/organic» ).

Далее жмем на кнопку «Показать на диаграмме» и видим график посещаемости, где каждая линия отвечает за трафик из конкретного поисковика (исключением является синяя линия – это общее число посетителей). Проанализируем график:

Если снижение трафика медленное и сразу во всех поисковиках (рис. 1), посмотрите, насколько ваш сайт соответствует продвигаемым запросам. Возможно, пора заняться оптимизацией контента. Наши копирайтеры будут рады вам помочь.

Если трафик упал только из Яндекса (рис. 2), возможно, ваш сайт попал под фильтры Яндекса (например, под АГС-40). В целом, советы по выводу сайта из под фильтра похожи и для Яндекса, и для Гугла, поэтому вы все же можете дочитать эту статью до конца.

Если же резкое падение трафика из органической выдачи вы видите только для Гугла (рис. 3), то это может указывать на сработавший алгоритм Панда или Пингвин. Тогда обратите внимание на дату падения трафика.

Шаг третий. Панда или Пингвин?

Теперь идем на страницу истории обновлений алгоритмов Google (предоставляется сайтом moz.com) и смотрим, когда были обновления алгоритмов. Если дата снижения трафика попадает в интервал 1-2 недели после обновления одного из алгоритмов – возможно, ваш сайт попал под этот алгоритм.

Если дата падения трафика совпадает с датой обновления алгоритма Панда:

Смотрим по статистике посещаемости, для каких страниц сайта наблюдается наибольшее падение трафика. Копируем 1-2 предложения текста с одной из страниц и вставляем в строку поиска в Google, заключив этот текст в кавычки (ищем по точному соответствию).

Смотрим на результаты поисковой выдачи. Если ваш текст найден на других сайтах – смотрим, насколько сильно он совпадает. Если совпадение больше 60%, значит, нужно предпринимать меры.

В первую очередь все же стоит связаться с владельцем сайта, где размещен ваш текст – возможно, он не в курсе, что текст был «украден» с вашего сайта, и добровольно уберет ваш текст. Если убрать ваш текст со своего сайта он отказывается, можно обратиться в суд – но тут потребуются четкие доказательства того, что текст был размещен на вашем сайте раньше. Поэтому такой вариант малоперспективен.

Так что, как правило, самым распространенным действием становится изменение своего текста. И желательно переписать его заново (а не делать рерайт).

После замены текста обязательно защитите его от копирования. Для Яндекса – сохраните текст в разделе «Содержимое сайта» – «Оригинальные тексты» в Яндекс.Вебмастере. Для Гугла – добавьте ссылку на страницу с новым текстом в разделе «Профиль» – «О себе» – «Мои публикации» в Google Plus. И не забудьте добавить ссылку на новую страницу в карту сайта sitemap.xml, это должно помочь ускорить индексацию страницы.

Если дата падения трафика совпадает с датой обновления алгоритма Пингвин:

Заходим снова в Инструменты Google для веб-мастеров и смотрим раздел «Поисковый трафик» – «Ссылки на ваш сайт». Пройдите по нескольким из них. Если это нерелевантные сайты, спам-сайты («линкопомойки») – ссылки с них могут быть причиной снижения позиций вашего сайта.

Необходимо связаться с владельцами данных сайтов, чтобы они убрали ссылки на ваш сайт.

Также верно и то, что чем больше естественных ссылок на ваш сайт, тем меньше будет негативное влияние спамных ссылок (это для тех случаев, если владельцы спам-сайтов не реагируют на требования снять ссылки). Например, хороший вес имеют ссылки с соц. сетей. Что такого интересного можно разместить на сайте, чтобы пользователи соц. сетей желали этим поделиться, ищите в статье «20 вариантов интересного контента для социальных сетей».

В заключение

Чтобы ваш сайт не попал под алгоритмы Панда и Пингвин (равно как и под фильтры Яндекса), не переставайте следить за качеством контента на своем сайте и за качеством внешних ссылок. Не стоит покупать ссылки на биржах или заказывать тексты у сомнительных копирайтеров – такая экономия средств в настоящем может привести к потере позиций сайта в будущем – и, соответственно, к потере клиентов и вашей прибыли.

Проявите уважение к посетителям своего сайта – дайте им полезный и интересный контент. И желательно постоянно обновляемый (статьи, обзоры и прочее).

Не переусердствуйте с оптимизацией под ключевики – менее оптимизированная страница, но более ориентированная на живых людей, будет в поисковой выдаче выше просто за счет поведенческих факторов (из-за большей глубины просмотра и меньшего процента отказов).

На хороший контент будут ссылаться релевантные сайты. Особенно, если им это вовремя предложить )) умелый маркетолог придумает, как это сделать.

Да, поддерживать качество сайта на достойном уровне – задача не из простых. Но в результате вы получите не только прибыль от продаж со своего сайта, но и чувство гордости от хорошо выполненной работы ))

Фильтр Панда и Пингвин от Гугла – основные понятия.

Более года назад многие оптимизаторы и владельцы сайтов открыли для себя новые понятия. Именно тогда Гугл презентовал два своих фильтра – Панда и Пингвин. В одной из своих статей «Фильтры Гугла – чудо зверинец» я детально проанализировал все основные санкции которые вы можете получить за нарушение правил оптимизации сайта. Пингвин и Панда – это новая ветвь эволюции предыдущих фильтров. Они более совершенны, работают жестко, четко и точечно. Каждый фильтр наказывает сайты за конкретные нарушения. Сегодня мы постараемся детально разобраться с этим зверинцем от Гугла, проанализируем основные ошибки из-за каких сайт может попасть под фильтр, и поговорим о том, как выйти из под Пингвина или Панды.

Рекомендуем прочитать: «Как продвигать свой сайт в Google?»

Фильтр Панда от Гугла

Все началось в феврале 2011 года. Многие оптимизаторы, проснувшись утром и выпив чашечку кофе, занялись уже привычных для себя дело – проверка позиций и посещаемости своих сайтов. И каково было их удивление, когда в заветном ТОП5 их сайтов не оказалось, хотя еще вчера они были там, а трафик упал в несколько раз. Как сейчас помню, переполох на всех СЕО форумах и блогах был невероятный. Многие не могли понять, в чем причина, чего так резко упал трафик с гугла, и как с этим бороться. Как оказалось, всему причиной стал запуск нового алгоритма Гугл Панда, который задел не только откровенные ГС, но и вполне белые сайты, крепко закрепившиеся в ТОПе и работающие не первый год.

Гугл как всегда впереди планеты всей. Веб мастерам ничего не объяснили, никаких сведений про новый фильтр практически не было, как из под него выйти тоже мало кто понимал. Спустя несколько недель, представители поисковика удостоились выложить список факторов за которые нападает Панда. Но это был не ответ, а, скорее всего, издевательство.

1. Большое количество не уникального контента

2. Множество рекламы и всплывающих окон

3. Высокие показатели отказов и плохие поведенческие факторы

4. Не качественные исходящие и входящие ссылки.

Как вы видите, стандартный перечень базовых нарушений из-за которых можно попасть под совершенно любой фильтр. Пользы от такого ответы практически нет, ведь каждый, кто делает СДЛ и так избегает всех этих нарушений, но от Панды и их это не спасло.

Рекомендуем прочитать: «Как оптимизировать и ускорить свой блог»

Уже со временем стало понятно, что в основном фильтр Панда направлен на борьбу с не качественным контентом.

Как работает Панда?

Если у Вас на сайте очень много дублирующихся страниц, страниц с копипастом или переспамленным текстом, то они очень сильно понижаются в выдаче и уходят далеко за ТОП100. Также Панда бьет по пустым, техническим и не несущих никакой пользы читателю страницам.

Как не попасть под фильтр?

Вроде бы и раньше были санкции за все вышеперечисленные нарушения, но с приходом Пингвина поисковики стали более строже относится к сайтам, анализ стал глубже и тщательней. Если раньше вы могли себе позволить допускать ошибки, то теперь нужно свести их в минимуму.

Вот что нужно сделать в первую очередь:

1. Закрываем от индексации все пустые страницы, те которые не предназначены для пользователя или несут не уникальную информацию. К таким страницам можно отнести профили на форумах, формы регистрации, страницы с копипастом, странице которые находятся в разработке и т.д

2. Максимально избавляемся от всех дублирующихся страниц. Как это сделать я детально написал в статье «Дубли страниц. Как от них избавиться?».

3. Панда – это настолько привередливый фильтр, что даже несколько плохих страниц могут пошатнуть весь сайт. Внимательно следите за контентом, особенно на тех сайтах, где пользователи имеют возможность его добавлять.

4. Поднимайте социальную активность. Добавьте на все страницы кнопки соц. Сетей, чтоб пользователь мог рассказать про интересный материал.

5. Длина контента тоже может повлиять на качество страницы и всего сайта. Если у Вас маленький текст (до 1000 символов), то делайте его максимально интересным. Если же пишите больше статьи, то обязательно структурируйте, используя для этого теги разметки h1-h6.

6. Не ставте навязчивую рекламу. Если уже и хотите монетизировать сайт, то рекламные блоки должны дополнять контент, а не заменять его.

Рекомендуем прочитать: «Фильтры Гугла – чудо зверинец!»

Не стоит путать Панду с новым алгоритмом ранжирования. Это не так. Панда – классический фильтр Гугла, который время от времени с распростертыми объятьями заходит в гости к сайтам. У Яндекса есть аналог – фильтр АГС, и с каждым днем эти два «монстра» становятся все больше и больше похожи. По этому, если вы делаете все правильно, то никакая Панда и АГС вам не страшны.

Стоит отметить, что с момента своего первого запуска и по сегодняшний день, фильтр Панда уже несколько раз менялся и дополнялся. Основа осталась такой же, но роботы стали более умнее, и делают меньше ошибок.
Вот совсем недавно Мэтт Каттс, руководитель компании Гугл, заявил, что Панда усовершенствуется каждый месяц, а глобальные обновления проходят раз в 3-4 месяца. Одно из последних было анонсировано 11 июня 2013 года. Как всегда, у Гугла с креативом хорошо – данный апдейт назвали Танец Панды.

Фильтр Пингвин – продолжение зверинца Гугла

Не успели оптимизаторы приспособится к одному зверю, как Гугл анонсировал выход нового фильтра Пингвин. Вот мне всегда было интересно, почему такие милые названия для столь жестких фильтров. Наверное это аналогия с самыми ужасными ураганами, которые называют женскими именами типа Сенди или Лиза.

24 апреля 2012 года – в этот солнечный день на просторах Рунета начал свою деятельность милый Пингвин. Но милым и пушистым он будет только для тех, кто не переусердствует с покупными ссылками, а если и покупает, то делает это грамотно и с умом. Также фильтр борется с поисковым спамом и черным СЕО с помощью которого пользователь пытается манипулировать выдачей.

Рекомендуем прочитать: «ТОП-10 советов по саморазвитию и самосовершенствованию»

Что ж нужно понимать под поисковым спамом:

1. Клоакинг – скрытие части текста или какого-то элемента страницы от пользователя, но в тоже время оставив видимым для поискового робота.

2. Переспам ключами в текстах.

3. Наличие неестественных ссылок которые ведут на Ваш сайт.

Больше всего проблем возникло именно с третьим пунктом. Если у Вас очень много одинаковых анкоров ведущих на сайт, преобладают ссылки с нетематических сайтов, очень быстрый прирост беков и качество этих беков оставляет желать лучшего, то Пингвин может клюнуть достаточно сильно.
В связи с этим, многие СЕО специалисты стали отмечать, что для продвижении в Гугле нужно использовать как минимум 50% безанкорных ссылок, и не более 20% анкоров с прямым вхождением ключа.

Как не попасть под фильтр?

Пингвин направлен на отслеживание внешних факторов продвижения вашего сайта. В связи в этим нужно соблюдать просты правила:

1. Не занимайтесь массовыми прогонами своего сайта по тысячам каталогов и форумов

2. Если покупаете ссылки, то старайтесь брать с трастовых сайтов. Ссылки должны быть вечные и в тематических статьях. О том как выбрать хорошего донора читайте в моей статье «Качественны сайт донор – отлично продвижение»

3. Около 50% ссылок ведущих на ваш сайт должны быть безанкорные, и не более 20% с прямым вхождением ключа.

4. Также обратите внимание на перелинковку на сайте. Это не 100%, но есть мнение, что внутренние ссылки тоже желательно делать с разными анкорами и максимально разбавлять.

Рекомендуем прочитать: «8 действенных правил, которые помогут создать качественный логотип»

Последнее обновление фильтра Пингвин произошло 22 мая 2013 года. Именно тогда многие веб мастера получили в сообщения в Веб Мастере Гугла о том, что на их сайт ведут неестественные ссылки, и если не принять никаких мер, то сайт сильно потеряет позиции. Я знаю людей, у которых трафик упал на 90-95%, с 10.000 до 500-700 человек в день.

Фильтры Панда и Пингвин — выводы

И в конце статьи можно сделать вывод, что запуском Пингвина и Панды Гугл постарался структурировать и объединить все существующие фильтры в два разных фильтра. Один из них отвечает за качество внутренней составляющей сайт, другой за внешнюю оптимизацию и продвижение. Скажу так, что если делать все грамотно, создавать сайт для людей, не переусердствовать с закупкой ссылок и придерживаться основ внутренней оптимизации, то никакие звери Вам не страшны. Развивайте свои сайты, пишите хорошие статьи, зарабатывайте деньги.

Добавить комментарий