Google будет пессимизировать позиции фейковых публикаций в выдаче


Содержание материала:

Яндекс пессимизирует сайты с рекламой Google Adsense?

Группа активистов обвинила компанию Яндекс в нарушении антимонопольного законодательства. В специально опубликованной в связи с этим петиции в частности говорится о том, что, новый алгоритм, определяющий качество рекламы пессимизирует ( понижает позиции в поисковой выдаче ) те сайты, которые используют Google AdSense .

Данная публичная петиция адресована главе федеральной антимонопольной службы ( ФАС РФ ) Игорю Артемьеву . Ее первоначальным автором является некая Анжелика Степанова . К настоящему моменту под петицией подписалось 360 человек.

Автор петиции подчеркивает, что запуск нового алгоритма привёл к понижению позиций сайтов в поисковой выдаче Яндекса на несколько десятков пунктов, что повлекло за собой потерю пользователей и снижение уровня получаемого дохода.

Одновременно с этим в петиции присутствует утверждение о том, что на большинстве сайтов, которые подверглись действительно ощутимым санкциям со стороны поисковой системы Яндекс, демонстрировались рекламные блоки Google AdSense . В качестве аргументов приводится ссылка на обсуждение на одном из авторитетнейших специализированных форумов.

В этой связи необходимо отметить, что согласно результатам опроса , специально проведённого на форуме, 84% сайтов, пострадавших от нового фильтра сайтов действительно использовали рекламные блоки от Google AdSense.

При этом аргументы , озвученные официальным представителем компании Яндекс, Еленой Першиной , автор петиции считает недостаточными для внедрения в работу подобного фильтра и применения его к самым разнообразным сайтам.

По мнению автора петиции, прямые вопросы сообщества вебмастеров по поводу четкого разъяснения условий фильтрации при условии размещения рекламы от конкурирующих IT-компаний, появившиеся в официальном блоге компании Яндекс, ее уполномоченные представители просто игнорируют.

В связи с этим автор петиции просит ФАС РФ возбудить и рассмотреть дело о длительных и систематических нарушениях действующего на территории Российской Федерации антимонопольного законодательства, якобы допускаемых компанией Яндекс. А также оценить степень законности применения фильтрации поисковой выдачи в соответствии с оценкой качества представления рекламы как « вводящей в заблуждение » и обязать компанию Яндекс устранить последствия нарушения антимонопольного законодательства.

Пессимизация Яндекс Дзен: можно ли спасти канал от напасти?

В Яндекс Дзен пессимизация канала — это один из ходовых инструментов, которым активно пользуется администрация сервиса по отношению к нарушителям правил. Когда автор вдруг замечает, что у него резко сократилось число показов в лентах читателей, и соответственно, снижаются счетчики просмотров и дочитываний, то одна из основных причин этого — как раз наложение ограничений.

Увы, если вовремя не исправить ситуацию и не выяснить причину, то в дальнейшем площадку ждет окончательный блок! В этой статье мы расскажем все, что стоит знать про пессимизацию — из-за чего она может появиться и что делать, если избежать этого все-таки не получилось.

За что применяется пессимизация?

Мы много раз писали о том, что в Яндекс Дзен действуют строгие требования к контенту, искусственный интеллект веб-сервиса действительно следит за всеми публикациями. Поэтому, если вы регулярно нарушаете правила, то потом не удивляйтесь негативным последствиям. Советуем освежить память и перечитать требования к содержанию статей: https://yandex.ru/support/zen/requirements/rules.html

Чаще всего пессимизируют за явный кликбейт, агрессивный спам, копипаст, вставку видео из YouTube без указания автора. Конечно, если вы нарушите любой другой пункт из списка, вас также ограничат, но по статистике, эти требования пытаются обойти гораздо реже.

Как узнать, что канал пессимизирован?

Затронем самый важный вопрос, который волнует всех авторов Яндекс Дзен: как узнать, что канал пессимизирован? Всего существует три способа:

1. Понаблюдайте за активностью счетчиков. Самое явное следствие ограничения – резкое уменьшение числа показов в подборках читателей, которое наблюдается у всех вновь размещенных публикаций.

2. Чтобы узнать наверняка, напишите модераторам через форму обратной связи: https://yandex.ru/support/zen/troubleshooting/statistics.html;

3. Проверьте через код:

  • Найдите свой канал на Яндекс Дзен, но не авторизовывайтесь на сервисе;
  • Зайдите внутрь, щелкните правой кнопкой мыши на свободном поле и выберите команду «Исходный код страницы»;
  • Найдите строку «meta property=»robots» content»:
  • если дальше идет =»all», значит, все в порядке;
  • если =»none», значит, все плохо.

Можно ли от нее избавиться?

Итак, мы разобрались, как выглядит пессимизация канала на Яндекс Дзен, а теперь, рассмотрим, как от нее избавиться, стоит ли это делать и чем чреваты эти ограничения.

  • Начнем с того, что пессимизация – это все-таки не блок, вы еще можете реанимировать свое детище. Для этого нужно связаться с модераторами, получить подтверждение об ограничениях, а потом удалить публикации, которые нарушают требования Яндекс Дзен.
  • Вам придется самостоятельно искать забракованные статьи – мы рекомендуем сначала удалить последние три-пять.
  • Если на ваш взгляд проблема устранена, то напишите в техподдержку Яндекс Дзен и приготовьтесь ждать. Средний срок рассмотрения заявки и перепроверки канала составляет 2 недели. Ускорить процесс никак нельзя, в службе поддержки ссылаются на то, что задача возложена на робота и повлиять на скорость его действий невозможно.
  • Если окажется, что вы удалили не те материалы, то придется чистить весь контент. На этом этапе мы бы рекомендовали задуматься об отказе от этого канала – увы, гораздо проще будет все начать заново.
  • Проверить пессимизацию Яндекс Дзен однозначно стоит в том случае, если вы увлекаетесь контентным спамом – это когда один и тот же текст переделывается несколько сотен раз и всегда выдается за уникальный. Интеллект веб-сервиса уже научился распознавать такие статьи и беспощадно применяет свои санкции.

Надеемся, что вы никогда не столкнетесь с пессимизацией. Запомните простой рецепт безоблачного счастья – чтобы спать спокойно, не нарушайте правила!

Что такое пессимизация сайта

24 октября 2020 года. Опубликовано в разделах: Азбука терминов. 2847

Больше видео на нашем канале — изучайте интернет-маркетинг с SEMANTICA

Термин появился в 2003 году в рамках определения принципов работы ПС Рамблер и закрепился в понятийном аппарате seo-специалистов несмотря на то, что Яндекс, Google и другие поисковики официально его не используют.

Как понять, что произошла пессимизация сайта

Необходимо с помощью специальных сервисов контролировать позиции по продвигаемым запросам. Панели вебмастера Яндекса и Google помогают следить за состоянием вебсайта и сигнализируют о неполадках.

Понижение позиций может произойти по нескольким причинам и не все из них фатальные:

  • Если по высокочастотным запросам вы слетели, но средне- и низкочастотные на месте, это, скорее, активность конкурентов.
  • Если сайт разово выпал и быстро вернулся, причин волноваться тоже нет.
  • Если сайт упал по продвинутым запросам за сотню позиций (иногда просто на несколько десятков пунктов), не возвращается, стабильно не реагирует на попытки поднять рейтинг, вот здесь пора принимать меры. Есть все основания полагать, что это пессимизация сайта, причем часто позиции в одной ПС, например, в Гугле, сохраняются, а слетели только в Яндексе.

Об этом же свидетельствует обнуление тематического индекса цитирования (тИЦ).

Типы пессимизации

В зависимости от того, кто найдет нарушения и наложит санкции, различают ручную и автоматическую пессимизацию.

Модераторы поисковых систем вручную обнаруживают и обрабатывают нарушения. Чтобы вывести сайт из-под такого фильтра, нужно устранить причины и направить письменное обращение, что проблемы устранены.

Однако наиболее часто встречающиеся случаи — это автоматическая пессимизация. Происходит она на основании анализа информации, собранной роботами поисковиков.

За что Яндекс и Гугл могут наложить на сайт фильтры и понизить позиции в выдаче

Существует ряд причин, почему поисковики могут пессимизировать сайты. Список, приведенный ниже, содержит наиболее частые из них, но не является исчерпывающим. Поскольку официальной информации на эту тему нет и быть не может во избежание недобросовестного использования.

  • Неуникальный, некачественный контент.
    Если вас уличат в плагиате информации, как минимум, поместят на позиции ниже оригинального источника, в худшем случае можно выпасть из индексации.
    К нарушениям также могут отнести избыток ключевиков, нерелевантные тексты, генерируемые автоматически, дублирование контента на разных страницах, статьи объемом до 500 символов.
  • Черное SEO.
    Ключевые слова, оформленные невидимым шрифтом.
    К неблагонадежным методам, приводящим к пессимизации сайта Яндексом и Гуглом, также относят клоакинг, свомпинг, сателлиты, дорвеи и прочие.
  • Линкопомойки.
    Избыток внешних ссылок с сайта. Подобные страницы в выдаче нередко помечаются как спам. При большом количестве исходящих ссылок сайт могут наказать.
  • Ссылочный спам.
    Это, наоборот, ссылки на сайт. Один из популярных способов продвижения, при этом требующий контроля за количеством и качеством ссылок. Большой объем нерелевантных низкого качества сайтов, которые ссылаются на вас, сослужат плохую службу. Резкое увеличение числа внешних ссылок на сайт, неестественный прирост могут привести к бану.
    Если поисковики обнаружат искусственное увеличение, могут свести вес, передаваемый всеми ссылками, проставленными в этот период, к минимуму или нулю.
  • Накрутка поведенческих факторов.
    Тут все понятно, попадетесь — хорошего не ждите.
  • Много рекламы на интернет-ресурсе.
    Это не просто будет мешать вашим пользователям воспринимать информацию, но и станет причиной переизбытка внешних ссылок с сайта и пессимизации за перелинковку.
  • Выделение текста жирным.
    Не злоупотребляйте тегами b и strong, рекомендуется их использовать только для точечных акцентов.
  • Изображения.
    Все картинки, указанные к индексации, должны отображаться и быть релевантными. В противном случае это похоже на спам.
  • Биржи.
    Если участвуете в автоматизированной продаже ссылок со страниц сайта и поисковик решит, что бирж слишком много, можно попасть под санкции.
  • Ложные обменники — сайты, предлагающие скачивать файлы, для распаковки которых требуют отправить платное смс или распространяющие вирус. Поисковые системы наказывают не только такие площадки, но и вебсайты, которые на них ссылаются.

Кроме того, ПС могут снижать позиции сайтов, которые не поддерживают актуальность информации, размещают множество отзывов, вызывающих подозрение, не предоставляют полезные опции посетителям. Например, если это каталог заведений, он должен предлагать не просто список мест, а предоставлять информацию по ценам, афишам, рейтингу, отзывам и т. д.

Как избежать пессимизации

Лучший способ не попасть под фильтры и избежать пессимизации при ранжировании — вести максимально легальные работы по оптимизации вашего ресурса и использовать только белые методы продвижения.

Если вы покупаете готовый сайт, который уже имеет какой-то возраст и историю, не пожалейте времени или средств сделать анализ состояния.

Используйте специальные сервисы — например, Вебмастер — чтобы контролировать рост позиций и другие важные факторы, типа процесс индексации, ссылки, ошибки, тИЦ и тд.

Если позиции упали, сайт перестал индексироваться, а вы «ничего такого, на ваш взгляд, не делали», свяжитесь с технической поддержкой. Там могут подсказать, в чем проблема, ее нужно будет устранить и сообщить об этом.

Относительно просто самостоятельно проверить тексты, картинки, title на уникальность. Проведите контентную оптимизацию: разбейте текст на абзацы, оформите заголовки и маркированные списки. Проанализируйте, нет ли избытка рекламы, других серых и черных методов продвижения. Проверьте ссылки, даже если их очень много, просмотрите все ли ваши, возможно имел место взлом.

Если пессимизация очевидна, а проблема неизвестна и самим обнаружить не удается, можно и нужно заказать аудит сайта у специалистов.

После устранения всех недочетов отправьте администрации ПС просьбу отменить санкции.

Исследование Rookee: от публикации контента до новых позиций, когда ждать результат

Оригинальный контент по заявлениям Яндекса и Google — один из основных признаков качественного сайта, который помогает в индексировании и улучшает ранжирование. Но практически все, кто начинает наполнять сайт качественным контентом, сталкиваются с проблемой оценки результата и роста позиций. В итоге владельцы сайтов делают скоропостижные выводы, на ходу меняют контент-политику, проводят ошибочные корректировки – тратят время, нервы и деньги.

Специалисты сервиса Rookee провели исследование и выяснили, сколько времени проходит от момента выкладки контента на сайт до его влияния на позиции в выдаче.

В течение 6 недель специалисты анализировали страницы сайтов, которые поделили на две большие группы:

домены до года (сайты с возрастом от 6 до 12 месяцев);

домены старше 3 лет.

В исследовании приняли участие сайты следующих тематик:

Все страницы тестируемых сайтов поделили примерно на равные части и провели контентные работы по трем направлениям:

создание новых страниц с оригинальным контентом;

замена текста на уже имеющихся страницах без изменения URL;

корректировка имеющихся текстов с увеличением объема, расширением тематического, ассоциативного LSI-ядра ключевых слов, связанных с тематикой и структурой сайта.

Условия эксперимента

Во время исследования на тестируемых страницах и доменах не проводилось никаких работ, кроме контентных. Все страницы уже были оптимизированы и проиндексированы.

Позиции сайтов замерили до начала работы с контентом. Для каждой страницы был подобран пул из четырех основных запросов (в основном средне- и низкочастотные). Далее провели запланированные работы, используя только качественный и уникальный контент, после чего все страницы были отправлены на переиндексацию в Яндекс.Вебмастер.

Позиции отслеживались ежедневно в Яндексе и Google в течение 6 недель после выкладки контента. Из эксперимента исключили сильно отклоняющиеся от среднего значения данные. Таких оказалось немного: 1–1,5 % страниц в каждой подгруппе.

Итоговые выводы были сделаны по средним в подгруппе значениям.

Отметим, что в данном эксперименте не важно выросли или упали позиции.

В ходе эксперимента были выявлены отличия в скорости индексации страниц сайта по тематикам:

И товары, и услуги показали примерно одинаковую скорость индексации. Новые страницы попадают в индекс через 3–5 дней после выкладки контента, копии старых изменяются с достаточно большим разбросом по сроку: 4–8 дней.

Информационные сайты и инфостраницы коммерческих сайтов

В этой тематике получен самый неоднозначный результат по скорости переиндексации. Примерно у 30 % тестируемых страниц сохраненная копия изменилась за 2 дня. Большинство остальных – в срок 4–7 дней.

Самое быстрое время обновления кэша в поисковых системах (1–2 дня). В выборке участвовали как сайты категории СМИ с официальным статусом, так и новостные порталы, включая региональные ресурсы. Большая часть из них отдает RSS-ленты.

Влияние на позиции новых URL новостных сайтов также показали самый быстрый результат. На большой части страниц изменения произошли сразу после публикации контента и индексации.

Страницы с частично обновленным контентом, у которых URL остался неизменным, переиндексируются дольше — 4–7 дней в поисковых системах Яндекс и Google. Отметим, что около 1,5 % страниц переиндексировались в Google только через 14 дней.

Наблюдения и выводы

Первое изменение позиций происходит через 3–7 дней после изменения текстовой копии страниц. Но запросы продолжает «штормить» еще некоторое время. Особенно это характерно для поисковой системы Яндекс. К более устойчивой позиции с плавной динамикой запросы приходят примерно через 2 недели после обновления сохраненной копии. Далее наступает некоторая стагнация, но через 3–4 недели позиции порядка 57 % запросов снова меняются — и этот результат остается стабильным.

Рассмотрим проекты с ростом позиций в выдаче

Для 68 % страниц с новым и старым URL при полной замене текста получили положительный импульс в ранжировании в поисковых системах Google и Яндекс.

График по темпу роста позиций для страниц, показавших рост после индексации в выдаче поисковых систем Яндекс и Google .

Для страниц с готовыми текстами, в которые только внесли изменения, позиции выросли у 42 % в Яндексе и у 31 % в Google.

График проектов, у которых не менее 50 % запросов показали рост в поисковых системах Яндекс и Google.

Согласно эксперименту, процесс учета текстовых изменений поисковой системой Яндекс можно поделить на 3 этапа:

Первичная индексация изменений (обновление сохраненной копии документа).

Предварительный отбор документов поисковой системой, выкладка текстового индекса. Первое изменение позиций, обычно происходит только через 4–7 дней после индексации. В этот период можно увидеть изменение позиций, которые часто оказываются нестабильными и продолжают меняться.

Итоговое ранжирование — второе заметное изменение позиций обычно происходит через 3–5 недель после индексации изменений.

Позиции могут меняться и после этого периода (нельзя исключать влияние поведенческих, социальных и прочих факторов, которые для эксперимента отключить не представляется возможным), но изменения плавные с явно отслеживаемым направлением динамики.

В поисковой системе Google позиции начинают меняться уже через 2 – 3 дня после индексации. Изменения продолжаются около 2 недель, но их динамика более плавная, чем у Яндекса. Позиции, полученные в Google, стабильнее, значительные скачки наблюдались у 26 % запросов в рамках топ-20. В среднем, позиции в Google стабилизируются быстрее, чем в Яндексе.

Согласно результатам эксперимента, срок установления устойчивой позиции примерно равный и для страниц, показавших рост позиций, и для тех, чей рейтинг в выдаче упал.

Срок изменения сохраненной копии у старых и новых доменов в среднем не отличается. Но позиции у старых доменов немного быстрее реагируют на изменения, растут на большее количество пунктов, их меньше «штормит» в течение всего периода.

Выводы

В понятие «текст проиндексирован» SEO-специалисты часто вкладывают разный смысл. Проиндексированный (попавший в кэш поисковых систем) текст влияет на позиции не сразу. Кроме того, позиции могут меняться еще некоторое время после публикации текста. Первое «быстрое» изменение позиции по запросу (особенно в Яндексе) нестабильно.

Согласно результатам исследования, среднее время окончательного принятия решения о позиции для страницы с новым текстом у поисковых систем составляет 4 – 5 недель.

Позиции для страниц с готовым текстом, в которые вносились доработки, стабилизируются на 1–2 недели раньше (однако в нашем случае такие страницы показывали меньше положительной динамики по позициям).

Факторы ранжирования Google 2020: что влияет на трафик и позиции сайта

Зарубежный оптимизатор Мэттью Вудвард сформировал список факторов, которые влияют на отношение поисковика к сайту, или было принято считать, что влияют. Специалист изучил официальные заявления Google, доступные исследования, сложил полученные знания с данными собственных экспериментов и опыта.

Мы перевели, адаптировали и дополнили статью Вудварда, проверили и актуализировали пункты, и оставили из них самые интересные. Получился материал, полезный в том числе и российским оптимизаторам, которые ориентируются на Google.

В статье описаны не все факторы ранжирования, но автор с уверенностью заявляет, что рассмотрел большинство. Некоторые из перечисленных факторов относятся не к ранжированию, а к индексации или сканированию страниц, они часть общего процесса поиска.

Категории факторов ранжирования Google:

Факторы ранжирования на уровне домена

Доменное имя

Общий авторитет домена влияет на ранжирование страницы: страница на более авторитетном домене будет иметь более высокий рейтинг. Мэттью Вудвард подтвердил это на собственном опыте: на его авторитетных сайтах есть «страницы 1», на которых он публикует статьи для ранжирования по целевым ключам.

«Exact Match Domain» — точное соответствие домену

Раньше даже некачественные сайты могли получить хороший рейтинг благодаря тому, что домен точно соответствовал нужной ключевой фразе. К примеру, если интернет-магазин электроинструментов смог заполучить домен BuyPowerTools.com, он получал высокие позиции из-за ключей в домене.

В 2012 году Google исправил эту несправедливость, выпустив обновление «EMD Update», по которому некачественные сайты, получившие рейтинг благодаря EMD, уступают качественным ресурсам. Влияние точного соответствия домена ключу снизилось.

Релевантный качественный сайт может попасть на высокие места рейтинга благодаря патенту о технологии обработки пользовательских запросов. Патент о том, что поисковик обнаруживает, какими являются запросы пользователя — коммерческими, информационными, географическими или навигационными. Если поисковик определяет запрос как коммерческий, то корректирует выдачу, чтобы в нее попали релевантные листинги. Так поисковик учитывает попытки обмануть поисковую систему с помощью точного вхождения ключей в домене.

Сейчас домен, содержащий ключевое слово, не имеет преимуществ перед брендовым доменом с точки зрения ранжирования. Поисковик обращает на ключ в домене внимание, но не стоит переоценивать этот фактор. Эксперт утверждает, что небольшая выгода от домена с точным соответствием ключу все-таки есть. Ключевая фраза в домене может повысить кликабельность, потому что помогает людям понять, чему посвящен сайт.

Топ-пост этого месяца:  Edu-Profit — неужели такая идеальная эссейная партнерка

История Домена

История домена влияет на работу с сайтом. Бывает, что веб-мастер покупает домен для своего сайта и обнаруживает, что у домена плохая история — прошлый владелец получал санкции за рассылку спама или пиратство. С таким доменом может быть сложно развивать свой проект из-за плохого отношения поисковиков.

Представитель Google Джон Мюллер говорит, что все зависит от количества пиратского контента, который публиковал старый владелец, и длительности нарушений. Если прошлый владелец нарушал правила Google долгое время, к примеру, больше 10 лет, то стоит искать новый домен. Если он публиковал пиратский контент недолго, то репутация сама в скором времени восстановится.

Посмотреть историю домена Джон советует с помощью Archive.org. С помощью бесплатного инструмента Whois от PR-CY можно проверить, кому принадлежит домен.

Проверка whois доменов и IP

При этот сам Whois не входит в список факторов ранжирования, но эксперт утверждает, что есть примеры, когда поисковик наказывал владельцев сайтов по Whois. Он наблюдал ситуации, когда SEO-специалисты многократно нарушали правила и за это Google наложил санкции на все их сайты вне зависимости от того, есть ли нарушения на конкретном проекте. Эта информация не подтверждена официально.

Возраст домена, дата регистрации и продления

Джон Мюллер в своем Twitter-аккаунте подтвердил, что возраст домена не является фактором ранжирования и не влияет на рейтинг в результатах выдачи.

Тем не менее, многие веб-мастеры предпочитают покупать старые домены, которые уже были в работе, а не регистрируют новые. Как правило, старые домены имеют больше обратных ссылок, поисковик воспринимает их как более надежных, зарекомендовавших себя.

В патенте Google указано, что дату регистрации домена поисковик может воспринимать как указание даты начала документа и больше доверяет старым доменам:

«Определенные сигналы могут использоваться для различения незаконных и законных доменов. Ценные законные домены часто оплачивают на несколько лет вперед, в то время как незаконные дорвеи редко используют дольше года. Дата истечения срока действия домена в будущем может использоваться в качестве фактора прогнозирования легитимности домена и, следовательно, связанных с ним документов».

Домен страны

Домены верхнего уровня с кодом страны состоят из двух букв — .ru, .us, .ca , .de, .jp и других, существует 250 вариантов доменов для стран и территорий по всему миру. Такие домены помогают определить геотаргетинг, в то же время это не означает, что им легче ранжироваться в своей целевой стране, чем доменам без привязки к гео. К примеру, можно с примерно одинаковым успехом развивать сайт в Испании на домене .com или .es.

Для продвижения по одной стране оптимизатор Михаил Шакин советует выбирать домен с гео в зависимости от страны. Для России .ru или .рф, для Украины .ua, для Казахстана .kz и так далее. Для продвижения по одной стране за рубежом также: для США .us, для Швеции .se, для Германии .de и так далее.

Для продвижению по нескольким странам домен с геопривязкой может быть проблемой, поисковик понимает, что сайт с доменом .ru относится к России и содержит русский язык.

Мэттью Вудвард считает, что поисковик воспринимает негативно сайты, которые веб-мастеры продвигают в другой стране: к примеру, сайт на испанском домене пытаются ранжировать на российском рынке. Но если разместить русский контент на испанском домене, он может успешно ранжироваться в России.

Для нескольких стран лучше выбирать.com или .net, его нормально воспринимают во всем англоязычном интернете, а .com часто встречается и у российских сайтов.

Джон Мюллер утверждает, что раньше для определения геотаргетинга или локального SEO Google использовал IP-адрес хостинга, но сейчас на это больше всего влияют общий TLD, ccTLD — обозначение страны в домене, атрибут ссылки rel, настройки Google My Business и консоль поиска Google.

«Парковка» доменов

Этот фактор влияет отрицательно. Некоторые веб-мастеры пользуются «припаркованными доменами» — это зеркала основного домена, обычно их используют, чтобы несколько доменных имен вели на один сайт. По определению поисковика, «parked domains» — это сайты с небольшим количеством контента для пользователей, часто они заполнены только рекламой.

После обновления Google автоматическим алгоритмом определяет «припаркованные домены» и активно удаляет их из индекса.

Домены с одинаковыми параметрами на одном хостинге

Google предполагает, что два домена с одинаковой структурой на одном хостинге совпадают, поэтому веб-мастерам рекомендуют использовать разные параметры URL, чтобы поисковик относился к сайтам как к двум самостоятельным проектам.

Код статуса 503

Если сайт сохраняет статус 503 в течение нескольких дней, Google может подумать, что проект не будет восстановлен. Сначала он уменьшит скорость сканирования, затем сканирование полностью прекратится, если на запрос файла robots.txt будет возвращен ответ с кодом 503.

Краткий список «35 фактов о техническом SEO от Google», записанный с расшифровки видеовстреч с Джоном Мюллером, есть в нашей группе ВКонтакте.

Факторы ранжирования на уровне страниц

Список факторов на уровне страницы, которые могут положительно или отрицательно повлиять на рейтинг страницы в Google.

Длина URL

Распространено мнение, что длинный URL негативно влияет на ранжирование. Это не так, еще в 2020 году Джон Мюллер говорил, что Google не имеет предпочтений касательно длины URL. Короткие адреса ссылок могут быть удобнее пользователям и выглядеть лучше в сниппете в выдаче, но это не фактор ранжирования.

Если URL содержит хеш «#» , то Google не будет его индексировать. Это подтвердил и эксперимент польского специалиста Макса Сайрека — ссылка с якорем вида «page2.html#testhash» не передавала вес и по запросу анкора в индексе страница не появилась.

URL с ключевым словом

Упоминание ключевого слова в URL — один из факторов ранжирования в поисковике, но у него крайне маленький вес. Джон Мюллер говорил об этом еще в 2020 году и затронул тему в 2020:

«Я бы на вашем месте вообще не волновался о словах и ключевиках в URL-адресе. В большинстве случаев посетители сайта вообще не видят, как выглядит адрес страницы».

В поддержке Google также есть информация: «URL-адреса с ключами, которые имеют отношение к содержанию и структуре вашего сайта, удобнее для посетителей ресурса».

Что это значит: хорошо, если URL содержит целевое ключевое слово, по которому вы хотите, чтобы страница ранжировалась. Когда вы включаете ключевое слово в свой URL, Google получает дополнительный сигнал о содержимом страницы. Но ключ в URL — довольно незначительный фактор, так что не стоит тратить время на реструктуризацию сайта, чтобы в URL обязательно попадали ключи.

Ключевое слово в начале заголовка

Согласно тестированию компании «Moz», ключевые слова стоит размещать в начале заголовка, так они сильнее влияют на ранжирование. Кроме того, исследования пользовательского опыта показывают, что некоторые пользователи читают только по паре первых слов заголовка.

Мэтт Катт не рекомендует использовать подчеркивание в качестве разделителя для заголовков, поисковик распознает их иначе. Вместо этого лучше использовать пробелы, тире и запятые.

Описание

Для сниппетов Google часто использует не тег description, а первый абзац статьи, это подтверждают и исследования компании «Yoast». Оказалось, что поисковик не отдает предпочтения коротким или длинным описаниям, также не имеет значения плотность ключевых слов в нем. В большинстве случаев в сниппет идут предложения из первого абзаца текста.

Не придавайте description чрезмерного значения. В Google Search Console есть отчет, которые показывает дубликаты description как проблему, но на самом деле это просто информация, о чем говорил и Джон Мюллер.

Ключи в мета-тегах

Наличие ключевых слов в мета-тегах важно для SEO — напрямую на продвижение их наличие не влияет, но оптимизация мета-тегов работает в связке с кликабельностью и улучшением повеенческих факторов.

Сильный сигнал для Google — тег H1, это самый важный заголовок первого уровня. Ключ в заголовке дает Google четкое представление о содержании контента на сайте и повышает релевантность страницы, когда пользователи делают запрос с вашим ключевым словом. Употребите ключи в описании страницы, это тоже помогает Google определить тему контента.

В продвижении поможет присутствие ключевого слова в других заголовках — H2 или H3, но лучше избегать чрезмерной оптимизации и использовать эти заголовки для LSI-ключей. Части алгоритма ранжирования под названием «Панда» не нравится избыточное количество вхождений ключей в тексты, заголовки, мета-теги и описания, за это сайт может получить санкции.

При этом ключи должны выглядеть естественно. К примеру, если вы формируете заголовки по типу «Link Building | Услуги по созданию ссылок | Стратегия построения ссылок», то это три ключевых фразы, поисковик может воспринять такой заголовок переспамленным. Лучше взять самый важный ключ и сформулировать более естественно — «Услуги по созданию ссылок — быстро и эффективно».

Ключи в тексте и порядок ключевых слов

Употребляйте ключевые слова в тексте, чтобы обозначить содержание текста и релевантность страниц. Поисковики понимают словоформы, поэтому употребляйте естественные формы «купить мужскую куртку», а не «мужская куртка купить». При этом в ключе важна часть речи: «загрузить антивирус» и «загрузка антивируса» — разные ключи, несмотря на то, что у них одна цель. Следите за плотностью — поисковики наказывают за заспамленность и любят естественные тексты для людей.

Целевое ключевое слово должно встречаться в тексте чаще остальных. Не существует секрета плотности ключевых фраз, который бы вывел материал в топ по целевому запросу, но целевой должен встречаться чаще остальных, не делая текст неестественным и переоптимизированным.

LSI-ключи

LSI (latent semantic indexing) — дополнительные фразы из синонимичного ряда, которые позволяют расширить семантику, уточнить тему для поисковика, использовать дополнительные поисковые запросы. Внедряйте ключевые слова LSI в название, описание и основное содержание текста — это помогает Google индексировать и лучше понимать тему вашей страницы.


Уникальность и длина контента

Наличие уникального контента на сайте — сильный сигнал качества для Google. Убедитесь, что содержание оригинальное и не дублируется. Алгоритм «Панда», который раньше был фильтром, может повлечь санкции за больше количество неоригинального контента, причем в пределах самого сайта также не должно быть дублей.

Оптимизаторы замечают, что длина контента тоже важна и для пользователей, и для поисковика. Длинный контент привлекает больше трафика, ссылок и социальных сигналов, но чрезмерно длинный текст отпугнет читателей. Рекомендуем ориентироваться на конкурентов из топа.

Дополнительный контент в статье может стать конкурентной особенностью, когда текст уже оптимизирован и написан качественно. Google приводит пример того, что на странице с рецептом какого-то блюда может быть функция умножения или деления ингредиентов для рецепта в зависимости от того, для скольких человек вы готовите. Так страница становится полезнее.

Обновления контента

Поисковик обращает внимание и на свежесть материалов, чтобы пользователь получал актуальную информацию. Еще в 2003 году у Google появился алгоритм «Freshness», а в 2010 обновление индекса «Caffeine». Поисковик оценивает актуальность и свежесть контента на всем сайте, учитывает дату создания публикации, частоту изменений контента, масштабность этих изменений. Актуальность не учитывается у материалов, которые нельзя обновить, к примеру, у исторических сводок, литературных произведений.

На ранжирование влияет и то, как часто происходит обновление: еженедельно, ежемесячно или ежегодно. При частом изменении контента страницы Google будет ее чаще сканировать. Google пытается определить частоту изменения содержимого страницы и соответственно изменяет частоту сканирования ботом.

Зарубежные оптимизаторы провели два независимых исследования о связи трафика и кликабельности с датой статьи — о результатах в отдельном посте.

Синдицированный контент

Поисковик нормально относится к синдикации контента — то есть использованию текстов повторно для публикации на других сайтах или в соцсетях. Этот способ позволяет поделиться контентом с новой аудиторией, при этом сэкономить ресурсы на написание. Получается, что на сторонних ресурсах размещаются копии контента.

Минус в том, что синдицированный контент может оказаться выше первоисточника — об этом в феврале 2020 года говорил Джон Мюллер из Google и проверяли другие оптимизаторы. Google считает канонической ссылкой не первоисточник, а авторитетную страницу, и отдает ей ссылки со всех дублей. С этим можно бороться только повышая авторитетность сайта и борясь с незаконным копипастом.

Скрытый контент

Раньше Google говорил о том, что скрытый контент — это однозначно плохо.

«Сокрытие контента специально для манипулирования поиском, увеличения количества слов или ключей на странице может привести к штрафу».

В связи с постепенным переходом на mobile first index поисковик будет обрабатывать сначала мобильную версию сайта. В компании понимают, что веб-мастерам иногда приходится скрывать контент в мобильных версиях, чтобы облегчить и упростить интерфейс. Поэтому поисковик будет нормально относиться к скрытому контенту на мобильных версиях сайта, но такой контент все равно не должен нарушать правила и манипулировать выдачей. При этом разная навигация для десктопа и мобайла — тоже норма и не вызовет проблем у Google.

Уровень чтения

Раньше Google выдавал статистику по уровням чтения страниц — уровень означал степень подготовленности читателя. Существовали базовый, промежуточный и продвинутый уровни. Статистику можно было увидеть, сделав запрос «site.ru: адрес сайта»:

Многие веб-мастеры решили, что уровень чтения — один из факторов ранжирования, на который поисковик обращает внимание, и базовый уровень — самый лучший, потому что доступен большинству аудитории.

На видеовстрече в январе 2020 Джон Мюллер сказал, что у алгоритмов Google нет распознавания уровней чтения, но веб-мастеры должны представлять, какой уровень у их читателей, чтобы предлагать им нужный контент, который они смогут понять.

К примеру, владелец медицинского сайта публикует статью для широкой аудитории, которая беспокоится о своем здоровье. Но статья состоит из массы сложных специфических терминов. Скорее всего такая статья будет плохо ранжироваться, но не потому, что сам поисковик занизит ее показатели из-за несоответствия уровня пользователей и содержания текста, а потому что мало пользователей будут искать те длинные термины из статьи.

Пишите контент для своей аудитории, определите, кто вас читает — начинающие или специалисты — и формулируйте так, чтобы они вас поняли.

Мультимедиа

Наличие уникальных изображений и видео на сайте — сигнал качества для поисковика. Эксперты рекомендуют инвестировать средства в хорошую команду дизайнеров, которая будет создавать уникальные изображения, снимать видео.

Дополнительный трафик можно привлечь с помощью Google-картинок. При этом Джон Мюллер говорит, что Google не учитывает картинки в CSS-стилях: изображение отображается в Поиске картинок, если есть тег с атрибутом src = ”https://www.example.com/my_image_URL” .

Сайтам, которые получают много трафика от изображений, не стоит экспериментировать с их URL-адресами. По словам Джона Мюллера, это повлияет на индексацию. Так что если из-за перемен на сайте у картинок меняются адреса, используйте редиректы.

Для ранжирования важна и оптимизация изображений. Эксперт советует использовать ключевое слово в имени файле и теге alt, его нужно заполнять языке, соответствующим языку страницы. Сотрудник Google Гари Илш говорит, что для оптимизации изображений нужно:

  • открыть боту доступ к картинкам в robots.txt;
  • создать отдельную XML-sitemap для изображений — так бот быстрее найдет картинки;
  • убедиться, что содержимому картинки соответствуют текст вокруг, title и description страницы;
  • использовать разметку для страниц.

Всплывающие окна

Всплывающие окна с рекламой, предложениями и подписками вынуждают пользователя посмотреть объявление перед работой с контентом. Они могут появляться перед загрузкой страницы, при загрузке или при прокрутке. К таким окнам Google относится плохо и считает их навязчивыми.

Rel=Canonical

Google может использовать rel=canonical, чтобы идентифицировать определенный фрагмент контента как первоисточник, но нельзя полагаться на один тег. Поисковик обращает внимание на совокупность факторов: rel=canonical, редиректы, параметры URL, внутренние ссылки и карту сайта.

Разметка и расширенный сниппет

Поисковик не рассматривает расширенный сниппет или наличие структурированной разметки в выдаче как факторы для ранжирования, но разметка делает сайт в выдаче привлекательнее. Расширенные сниппеты и разметка позволяют привлечь больше трафика и повысить кликабельность. Мэттью Вудвард советует плагины RankMath или Yoast SEO для WordPress — они упрощают внедрение разметки и повышают шанс получить особый сниппет.

Проверка по W3C

Проверка HTML и CSS-кода на соответствие стандартам W3C не влияет на ранжирование, о чем говорил специалист Google в видео.

Факторы ранжирования на уровне сайта

Бизнес-информация

Актуальная информация о компании важна для продвижения, особенно для локального SEO. На сайте важно указание названия, адреса, номера телефона, плюсом будут страницы в соцсетях, страница о компании, а также отзывы. Это важно для доверия пользователей и доказательств, что компания действительно существует. Чем больше данных, тем вероятнее, что она надежна.

Наличие политики конфиденциальности и условий использования сайта обязательны, они тоже сигнал доверия для поисковика. Это может привести к дублированию контента, но сотрудник Google говорит, что дублирование таких служебных страниц — не проблема.

Скорость сайта

Более быстрые сайты обеспечивают лучшее взаимодействие с пользователем, повышают заинтересованность и больше конвертируют. Также скорость сайта — один из факторов ранжирования, но не решающий. Оптимизатор Мэттью Вудвард считает, что среднее время отклика сайта должно быть где-то около 100 мс.

Для определения скорости сайта Google использует общее время загрузки и время рендеринга. Отдельные показатели промежуточных этапов рассматривать нет смысла, поэтому быстрая загрузка первого байта (TTFB) — не показатель хорошего пользовательского опыта.

Медленные сайты в мобильной выдаче попадут под Speed Update и будут занимать более низкие позиции, быстрых сайтов обновление не касается.

Структура сайта и количество страниц

Организация страниц на сайте образует структуру, она влияет на взаимодействие пользователей с контентом и на восприятие его поисковыми роботами. Правильная структура понятна пользователям, направляет их на важные конверсионные страницы, помогает ботам быстро обрабатывать сайт и распределять ссылочный вес.

Некоторые простые сайты имеют плоскую структуру — domain.com/post-name, где все страницы привязаны к главной с минимальным уровнем вложенности. Уровень считают по количеству кликов с главной до искомой страницы.

Такая организация распределяет ссылочный вес неэффективно, лучше иметь структуру «бункера» — «SILO». Она основана на разветвлении, распределении тем по иерархии — domain.com/seo/google-ranking-factors, domain.com/social-media/facebook-marketing.

Число страниц на сайте — не сигнал ранжирования, но больше проиндексированных страниц значит больше шансов попасть в топ по разным ключам. Для магазина большое количество страниц в каталоге означает большой ассортимент, а такие магазины поисковик воспринимает лучше.

XML-карта сайта поможет краулерам Google просканировать структуру сайта быстрее и эффективнее. Отсутствие карты не повредит ранжированию, она не гарантирует, что Google проиндексирует все страницы в карте сайта, но поможет краулерам его обработать. Если для сайта особенно важны картинки, с них приходит трафик, то можно создать карту и для изображений.

HTTPS

HTTPS напрямую не влияет на ранжирование, но при прочих равных условиях может выступить решающим фактором, если на других сайтах не установлен сертификат SSL.

Mobile first index

Поисковик постепенно переводит сайты на Mobile first index — это другой способ формирования выдачи, который будет основан на мобильных версиях сайтов. Переход в «первичный мобильный индекс» не зависит от удобства использования сайта на гаджетах, постепенно в него перейдут все сайты.

Сайт должен быстро открываться на мобильных, корректно отображаться — быть мобилопригодным. Ресурсы с некачественными мобильными версиями, плохой адаптацией для смартфонов будут получать низкие позиции в выдаче.

Время простоя сайта

Если сайт вышел из строя и стал недоступен, один или два дня простоя не повлияют на ранжирование. Но если ресурс будет недоступен в течение недели или более, Google полностью удалит сайт из индекса, пока он не восстановится, и бот не сможет его просканировать.

Также не используйте код статуса 503 несколько дней подряд, если хотите сохранить индексацию. Google может предположить, что сайт удален и всегда будет недоступен, если при загрузке сайта в течение нескольких дней подряд возвращается статус 503.

Поведенческие факторы

Google знает, сколько страниц сайта посещают пользователи, и сколько времени они проводят на каждой странице. Он знает, перепрыгивает ли пользователь по разным страницам или задерживается для чтения. Сайты с плохими показателями поведения ранжируются хуже — для поисковика это сигнал, что сайт не удовлетворяет пользователей.

Реклама вверху страницы

Сотрудники поисковика писали о том, что им поступало много жалоб: пользователи не хотят прокручивать страницу с большим количеством рекламы, чтобы добраться до полезного контента. Для пользовательского опыта плохо, если при переходе на ресурс большая часть экрана занята рекламой, поэтому поисковик стал хуже ранжировать ресурсы с большим количеством рекламы в верхней части страницы.

Ссылочные факторы

Исходящие ссылки

Многие считают исходящие ссылки фактором ранжирования, но это не так. Наличие исходящих ссылок на сайте может повысить ценность контента на нем, пользователи получат дополнительные данные, ссылки на подробности и источники. Google рассматривает и учитывает сам контент, но исходящие ссылки — не фактор ранжирования. Джон Мюллер объясняет это в своем видео.

Исследования компании «Moz» показывают, что тема страницы, на которую указывает ссылка, также может повлиять на ранжирование. Нежелательно оставлять на странице ссылки на материалы, которые не связаны с темой контента, поисковик может счесть их нерелевантными и спамными. Ссылки на некачественный домен дают плохое соседство, могут вредить и навлечь санкции за социтирование.

Внешние ссылки

Количество сайтов, ссылающихся на ресурс — один из самых важных факторов ранжирования в Google. Ссылочный профиль должен быть разнообразным, ценятся обратные ссылки с разных источников.

Покупка ссылок — это нормальная практика для веб-мастеров, но нужно искать качественные ссылки и постепенно наращивать ссылочный профиль, сохраняя стабильную скорость. Отрицательная скорость наращивания ссылок, когда сайт теряет больше ссылок, чем получает, отрицательно скажется на видимости в поиске.

Анкор обратной ссылки помогает Google понять тему страницы, которая должна быть релевантной, текст вокруг ссылки тоже должен подходить ей по теме.

Хоть поисковик убрал счетчик Page Rank в 2014 году, само понятие ссылочного веса и авторитетности и сейчас используют при оценке ссылок. Лучшие ссылки — с доменов с высоким уровнем авторитета и доверия, больший вес имеют ссылки с домашней страницы. Выше ценятся ссылки из основного содержимого страницы, они называются контекстными или редакционными ссылками. Оптимизаторы советуют попробовать получить ссылки с Википедии, выступив источником информации. Хотя ссылки из Википедии имеют Nofollow, то есть не влияют на ссылочный профиль, они все равно могут принести трафик.

Топ-пост этого месяца:  PHP-МАСТЕР. От теории до собственной CMS интернет-магазина

Некоторые веб-мастеры пишут, что ссылки с 301 редиректом также эффективны, но Джон Мюллер говорит: поисковик скорее всего не проиндексирует конечный URL при использовании ссылок с 301 редиректом.

Внутренние ссылки

Как внешние ссылки влияют на ваш рейтинг, так на него влияют и внутренние ссылки, которые ведут на страницы или ресурсы на том же домене. С помощью ссылок можно направлять ссылочный вес страниц и указывать на их важность — чем ближе к главной расположена страница по уровню вложенности, тем она важнее.

Ссылки также должны быть разнообразными, эксперты советуют использовать ссылки разных типов — анкорных, безанкорных, брендовых, сочетаний анкорных или безанкорных + бренд и не злоупотреблять ключами. В частности, для страницы важно количество, актуальность и качество ссылок, которые на нее указывают. Место расположение внутренних ссылок при этом не важно.

Наличие слишком большого количества ссылок, ведущих на несуществующие страницы — признак некачественного сайта в соответствии с рекомендациями Google. Найти неработающие ссылки поможет проверка внутренних страниц сервиса «Анализ сайта».

Проверка внутренних страниц

Дорвеи, плохие ссылки

Наличие ссылок с сайтов, которые Google определил как некачественные, повредит ссылочному профилю сайта, за это можно получить санкции.

Раньше были популярны взаимные ссылки, но сейчас поисковик может расценить это как схему искусственного наращивания ссылочного профиля. Также стоит избегать ссылок с форумов, заточенных под продажу ссылок, с сайтов, имеющих плохую репутацию и переизбыток ссылок.

Поведенческие факторы

Кликабельность

Страницы, которые получают больше кликов в результатах поиска, ранжируются лучше. Для этого нужно повышать привлекательность снипета — работать над расширенным сниппетом, кликабельностью заголовков, описания, URL.

Показатель отказов

Google знает, какие страницы сайта посещают пользователи и сколько времени них тратят. Отказом называют ситуацию, когда пользователь закрывает сайт спустя небольшое количество времени, или просмотрев только одну страницу. Высокий показатель отказов говорит о том, что пользователи нашли на сайте не то, что ожидали, их задача не решена. Это снизит рейтинг в результатах поиска.

Нужно работать на снижение числа отказов: давать пользователям заявленный контент, решать их задачи, побуждать смотреть другие материалы на сайте. Более высокие позиции получат сайты с высокими показателями кликабельности, просмотрами большего количества страниц.

С временем, проведенным на сайте, не все однозначно. Для некоторых сайтов хорошим показателем будет наоборот короткое время сеансов — к примеру, если пользователь может быстро заказать такси в пару кликов. В таком случае скорее всего поисковик ориентируется на другие сайты этой сферы.

Время задержки / Pogo Sticking

Pogo Sticking обозначает время, через которое люди возвращаются к результатам поиска, посетив сайт. Google определяет, останутся ли люди на вашей странице после посещения ее с помощью поиска Google. Если пользователь заходит на сайт и не возвращается к результатам, значит, страница хорошего качества — она дала всю необходимую информацию и закрыла потребность.

Прямой трафик и постоянные посетители

Прямой трафик — это пользователи, которые сохранили сайт в закладках или ввели его в адресную строку вручную. Сайты с высоким процентом постоянных посетителей и большим количеством прямого трафика считаются более качественными.

Комментарии

Привлечение внимание пользователей и побуждение оставлять комментарии — тоже сигнал качества, он означает, что проект взаимодействует с пользователем, контент интересен для обсуждения.

Физический офис

Большинство реальных предприятий имеют физические офисы. Наличие вашего адреса на сайте и в профиле в Google My Business — сильный сигнал, который подтверждает существование компании.

Социальные факторы ранжирования

Ссылки из соцсетей

Обычно считается, что Google не имеет доступа к данным Facebook, но это не так. Ведение профиля компании на Facebook — социальный сигнал для Google, еще положительно влияет количество комментариев, репосты пользователей с сайта в соцсети и отметки «Нравится».

Для русскоязычного продвижения можно использовать инструменты публикации статей в ВКонтакте — зачастую они появляются в индексе самостоятельно.

Проверить, учитываются ли аккаунты в соцсетях, и посмотреть статистику активности можно в «Анализе сайтов»:

Проверка соцсетей в Анализе

Pinterest

Ведение бизнес-аккаунта с закреплением URL сайта на Pinterest — хороший социальный сигнал для поисковика. Продвижение в Pinterest само по себе может привлечь дополнительный трафик и заказы благодаря красочным фотографиям и отметкам товаров на картинках. Пины приводят пользователей на сайт компании или на другие прикрепленные к пину ресурсы. Ссылка на сайт в профиле выделена и привлекает внимание.

Ссылки на YouTube

Для продвижения рекомендуют создавать видеоконтент, он подействует на пользователей, которым удобнее воспринимать видео, а не читать тексты. Проигрывание видео на странице сайта поможет увеличить время, проведенное на сайте, но оно должно не мешать работать с сайтом, а также быть тематическим и полезным. Выкладывать видео лучше на YouTube, причем ссылки с самого YouTube также влияют на рейтинг.

Брендовые факторы

Брендовые запросы

Брендовые запросы — сильный сигнал для Google. Если пользователи ищут конкретно «Мэттью Вудворд», а не просто «Создание ссылок», значит им нужен конкретный специалист или компания. Также хороший сигнал, если пользователь ищет название компании с ключевым словом, к примеру, «Мэттью Вудворд SEO». Это будет подтверждать релевантность сайта ключу.

Если пользователи ищут компанию, но не переходят по ссылкам на сайт, это негативный сигнал.

Упоминания и цитаты

Упоминание вашего бренда на популярных сайтах, которые ранжируются по вашим целевым ключевым фразам — положительный сигнал для Google.

Социальная активность

Бренды, которые более активны в социальных сетях и общаются с пользователями, более популярны и имеют больше заказов, если занимаются работой в соцсетях.

Предлагаем обсудить в комментариях перечисленные факторы.

Алгоритмы Google: как улучшить позиции, не попав под санкции

Регулярно Гугл и Яндекс выпускают новые алгоритмы, задачей которых является улучшение выдачи, борьба с некачественными ресурсами. Если раньше пользователь на свой запрос получал бесконечное множество страниц и не всегда находил нужный ему ответ, то сейчас, благодаря поисковым алгоритмам, он в считаные секунды может получить решение на любой интересующий вопрос.

В статье мы расскажем об основных алгоритмах Google, выпущенных в последние годы, и их влиянии на выдачу. Разберемся, что нужно учитывать владельцам сайтов, чтобы не попасть под санкции и как следует оптимизировать и продвигать свой ресурс, чтобы улучшать позиции.

Таблица алгоритмов Google:

Название Дата выпуска Цель
Гугл Панда (Google Panda) 24.02.2011 г., проводятся регулярные апдейты борьба с неуникальным, низкокачественным контентом
Гугл Пингвин (Google Penguin) 24.04.2012 г., сейчас работает в режиме реального времени понижение позиций сайтов с некачественными и неестественными ссылками
Колибри (Hummingbird) 30.08.2013 г. предоставление более релевантных результатов, основанных на понимании смысла запросов пользователя
Антипиратский апдейт (Google’s Pirate Update) Август, 2012 г. понижение позиций сайтов, содержащих пиратский контент
Голубь (Pigeon) 24.07.2014 г. предоставление наиболее релевантных результатов поиска в зависимости от местонахождения пользователя
Mobile Friendly Update 21.04.2015 г. улучшение позиций сайтов, оптимизированных под мобильные устройства
Фред (Fred) 08.03.2020 г. чистка поисковой выдачи от сайтов, целью которых является получение прибыли. Страницы с большим количество рекламы, переоптимизированными текстами и множеством исходящих ссылок исключаются
RankBrain начало 2015 года понимание запросов пользователя

Теперь давайте поговорим отдельно о каждом алгоритме, поймем, какие факторы могут помешать продвижению сайта и что стоит изменить на своем ресурсе, чтобы улучшить позиции в результатах поиска.

Гугл Панда (Google Panda)

Под санкции этого алгоритма попадают сайты с неуникальным автоматически сгенерированным контентом, а также сайты с текстами, перенасыщенными ключевыми запросами. Помимо этого, алгоритм затрагивает ресурсы, на которых один и тот же текст повторяется на разных страницах. Более подробно об алгоритме Панда вы можете узнать в одной из наших статей.

Добавляйте только уникальные тексты на свой ресурс, желательно, чтобы оригинальность была не ниже 95%. Не перенасыщайте тексты ключевыми запросами – рекомендуем использовать 1 запрос на 300-500 символов. Проверьте сайты на дубли, их быть не должно, в противном случае закрывайте дубли от индексации, настраивайте тег canonical или next prev, если страницы являются полностью одинаковыми – настройте редирект.

Работа с контентом может значительно повлиять на продвижение вашего ресурса, поэтому добавляйте оптимизированные статьи как можно чаще, пишите продающие уникальные описания для товаров в магазине, и тогда никакая Панда вам будет не страшна.

Гугл Пингвин (Google Penguin)

Под санкции попадают сайты с покупными ссылками, ресурсы с низкосортной ссылочной массой (ссылки ведут с сайтов плохого качества или вовсе не подходят по тематике).

Регулярно проверяйте ссылочную массу, ведущую на ваш сайт, с помощью Вебмастеров и сервисов для анализа ссылок, например, Megaindex.com. Избавляйтесь от спамных ссылок, ссылок с низкосортных ресурсов. При продвижении наращивайте только естественную ссылочную массу (об этом читайте в нашей статье), старайтесь делать упор на безанкорные ссылки. За большое количество ссылок с ключевыми словами можно получить санкции.

Колибри (Hummingbird)

Можно сказать, что это основной алгоритм Гугл, который включает в себя и Панду, и Пингвин, и Фред и RankBrain. Он предоставляет пользователям страницы с точным вхождением запроса, учитывая смысл запроса и принимая во внимание синонимы поисковой фразы.

Пишите тексты, ориентируясь на людей, а не роботов. Точное вхождение ключевых фраз не обязательно, используйте LSI-копирайтинг. Контент на сайте должен быть разнообразным, поэтому стоит включать больше синонимов, касающихся тематики запроса.

Антипиратский апдейт (Google’s Pirate Update)

Алгоритм Гугл, который, согласно закону DMCA (рус. Закон об авторском праве в цифровую эпоху), обязует поисковые системы не показывать ресурсы, нарушающие авторское право. Название алгоритма говорит само за себя, он борется с сайтами, содержащими пиратский контент, а также ресурсами, которые публикуют информацию о том, как скачать авторский контент из интернета.

Алгоритм Google’s Pirate Update затрагивает как органическую, так и платную выдачу, то есть у ресурсов с пиратским контентом не будет возможности продвигаться даже в платной выдаче Гугла. Подать жалобу на кражу материалов вы можете на сайте.

Также в 2020 году был введен Антипиратский закон, согласно которому страницы с пиратским контентом будут заблокированы.

Все очень просто – не добавляйте пиратский контент на свой сайт. Если на ваш ресурс будут поступать жалобы, точное количество которых Гугл не озвучивал, то сайт попадет под санкции.

Голубь (Pigeon)

Алгоритм, который учитывает нахождение пользователя и выдает результаты в соответствии с его местонахождением, удаленностью от предполагаемого объекта. К примеру, если вы хотите найти ближайший медпункт от вас, Google учтет вашу локацию и выдаст в результатах те учреждения, которые ближе всего находятся к вам.

Для улучшения локального ранжирования стали привлекаться асессоры – именно люди принимают участие в оценке ресурсов, анализируя популярную локальную выдачу. Асессоры изучают сайты на соответствие местонахождения по региону, их задача – избавить выдачу от ресурсов, которые на самом деле не соответствуют требованиям.

Чтобы улучшить ранжирование вашего сайта по определенному региону, рекомендуем вам зарегистрировать сайт в Google Мой бизнес, а также в справочнике Яндекса, каталогах и справочниках сайтов. Указывайте местонахождение в тегах и текстах, это позволит увеличить релевантность сайта по региону.

Mobile Friendly Update

Не секрет, что Google отдает предпочтение сайтам, оптимизированным под мобильные устройства. Поисковик изменил подход к индексации и начал обрабатывать сайты, исходя из интересов мобильных пользователей. Согласно показаниям статистики, мобильные запросы в разы превысили десктопные. На данный момент mobile-index стал основным, а значит, в первую очередь будут индексироваться и ранжироваться mobile-friendly сайты.

Как сообщил сотрудник поисковика Джон Мюллер, Google будет оповещать владельцев о переводе их сайта на mobile-first индексацию через сервис Search Console.

Вы можете проверить, соответствует ли ваша страница требованиям Google, с помощью инструмента проверки мобильных страниц, и внести изменения по его рекомендациям. Помните, чтобы угодить Google, ваш сайт обязательно должен иметь адаптивный дизайн или мобильную версию.

Фред (Fred)

Под «прицел» данного алгоритма попали малополезные для пользователя сайты. В основном это ресурсы, содержащие контент для привлечения трафика и большое количество рекламного материала.

Не злоупотребляйте медийной, баннерной и другой рекламой; избегайте большого количества исходящих ссылок.

RankBrain

Система искусственного интеллекта, созданная на базе машинного обучения, которая позволяет правильно понимать и обрабатывать запросы пользователей. Более подробно о работе RankBrain мы уже писали в одной из наших статей.

Теперь вы знаете все об алгоритмах Google и наверняка поняли, что следует изменить на вашем сайте, чтобы улучшить свои позиции в поисковой системе и не попасть под санкции. Если времени на доработку не хватает, вы всегда можете обратиться к нашим специалистам за услугами поискового продвижения – учтем все тонкости ранжирования как Яндекса, так и Гугла.

Как конкуренты могут понизить позиции Вашего сайта в поисковой выдаче посредством негативного SEO

Задача специалиста по поисковой оптимизации сайта лежит в плоскости продвижения сайта в органической выдаче поисковой системы. Однако по ряду причин позиции сайта в поисковой выдаче могут быть снижены или сайт вовсе может быть исключен из поисковой выдачи.

Важно знать, что позиции сайта могут быть снижены по причине вмешательства третьей стороны.

Разберемся с понятием поисковой пессимизации сайта.

Пессимизация сайта

Пессимизацией документа или сайта называется понижение позиций в поисковой выдаче.

Поисковые системы Google и Yandex понижают позиции сайта по причине борьбы с поисковым спамом. Также поисковые системы не желают делиться прибылью с поисковыми оптимизаторами и поэтому не очень охотно развивают системы обнаружения злонамеренных атак на сайт от третьей стороны.

По объективным причинам понижение позиций сайта конкурентом является возможным.

Ввиду различий в поисковых алгоритмах, набор действий приводящий к пессимизации сайта в выдаче Google и Yandex отличается.

Пессимизация сайта в Yandex происходит ввиду попадания сайта под фильтр поисковой системы или по причине ручных санкций. Преимущественно ручные санкции накладывается по причине агрессивного и явного продвижения сайта внешними ссылками.

Пессимизация сайта в Google также происходит по причине попадания сайта под фильтр поисковой системы или по причине санкций, называемых пенальти. В Google легче происходит продвижение сайта при помощи внешних ссылок, поэтому при умеренном продвижении сайта внешними ссылками санкции можно миновать.

Основанием для снижения позиций сайта в поисковых системах являются разные факторы. Рассмотрим примеры, за что пессимизируют сайты.

Перечень причин для пессимизации:

  • Агрессивная реклама;
  • Тизерная реклама;
  • Всплывающие окна любого характера, включая JavaScript. Поисковые системы выполняют скрипты JavaScript;
  • Продажа ссылок;
  • Блок рекламы в основном содержании документа;
  • Заголовок не соответствует содержанию документа;
  • Контент с большим количеством спама в комментариях.

Часто позиции в органической выдаче снижаются по причине попадания документа или сайта под фильтр или из-за накладывания ручных санкций на продвигаемый сайт. Но также позиции сайта могут быть снижены по причине вмешательства третьей стороны.

Пессимизация документа или сайта в целом может быть применена в отношении кластера запросов или к одному запросу.

Понизить позиции сайта в поисковой выдаче можно при помощи внешнего вмешательства. Подобные манипуляции называются негативным SEO.

Негативное SEO сайта конкурента явление частое и используется на всех конкурентных рынках.

Цена на услуги по понижении сайта может составлять $1 000 и выше.

Негативное SEO


Негативным SEO документа или сайта называется комплекс мер по негативной поисковой оптимизации.

Негативное SEO применяется для понижения позиций документа или сайта в целом в поисковой выдаче.

При продвижении в сегменте с высокой конкуренцией использование негативного SEO является обычным делом.

Понизить сайт конкурента в поисковой выдаче достаточно просто. Для влияния на позиции сайта конкурента разработаны специальные инструменты, разработаны тактики и программное обеспечение. Также есть сервисы и для отражения атаки на сайт.

Как конкуренты могут понизить позиции сайта в поисковой выдаче

Есть ряд способов для понижения позиций конкурентного сайта в поисковой выдачи. Рассмотрим основные способы, используемые на практике для понижения позиций сайта в поисковой выдаче.

Способы понизить позиции сайта в выдаче:

  • Понижение сайта в выдаче, если есть доступ. Размещение вируса на сайте;
  • Ферма ссылок. Манипуляции с внешним ссылочным профилем;
  • Скрапинг. Применение DMCA;
  • Агрессивный краулинг. Качественное уменьшение скорости загрузки сайта;
  • Манипуляции с сателлитами

Понижение сайта в выдаче, если есть доступ

Полный доступ к сайту можно получить разными способами.

Если есть доступ к сайту, понизить сайт в выдаче поисковой системы достаточно просто. Достаточно разместить на сайте специальный код, воспринимаемый поисковыми системами как вирус.

Также сайт может быть взломан, а содержимое сайта изменено так, что изменения трудно заметить без использования инструментов. Например, спам может закрываться от пользователя и отображаться только при просмотре кода поисковым краулером. Также злоумышленник может перенаправить трафик продвигаемого сайта на свой сайт и таким образом воспользоваться трафиком.

Еще можно использовать редиректы, ведь если Google видит редиректы на внешние сайты с внутренних страниц, то будет накладывать санкции на сайт.

Сайт может быть исключен из поисковой выдачи, если злоумышленник получит доступ к файлу robots.txt.

Поисковая система принимает жалобы и на контент, который нарушает действующие законы. Поэтому разместив запрещенный контент на сайте можно удалить сайт из выдачи.

К снижению позиций может привести следующий контент:

  • Обман пользователя;
  • Использование чужих логотипов, названий и марок;
  • Страницы выдающие себя за официальные страницы знаменитостей или копирующие профиль реальных людей из социальных сетей;
  • Любые документы, пытающиеся манипулировать пользователем;
  • Поддельные контакты;
  • Недостоверная информация;
  • Непроверенная информация;
  • Несуществующие авторы контента;
  • Страницы маскирующие рекламу под основной контент;
  • Страницы с контентом про конспирологию;
  • Сильно отвлекающие объявления;
  • Кликбейт, сенсационные заголовки для увеличения числа кликов;
  • Всплывающие окна;
  • Элементы мешающие прокрутке;
  • Реклама непристойного содержания;
  • Элементы раздражители;
  • Скопированный текст;
  • Искажение фактов;
  • Страницы без редактирования;
  • Страницы без ссылок на источники;
  • Заполнение материала отвлекающими картинками или другим мешающим чтению контентом;
  • Злоупотребление общеизвестными фактами и использование общих фраз типа «ни для кого не секрет»;
  • Негативные комментарии на сайте и внешних ресурсах.

Подробнее про оценку сайта со стороны Google в статье на сайте MegaIndex по ссылке далее — Как сотрудники Google оценивают сайты.

Каждый владелец сайта должен знать о негативном SEO.

Злоумышленник может нанести большой урон позициям, получив доступ к сайту. Бизнес должен заботиться о своих сайтах. Конкуренты всегда ищут способы атаковать друг друга. Конкуренция уже достигла уровня, когда конкуренты используют неэтичные способы остаться в топе органической выдачи поисковой системы.

Существует множество способов отражения атаки negative SEO.

Защита от negative SEO атаки на сайт, если сайт взломан

Негативное SEO является реальной угрозой при достижении топа органической выдачи, и оптимизаторы, которые недооценивают этот аспект в SEO, платят дорого за свою халатность.

Регулярный аудит кеша поисковой системы является единственным способом предотвращения подобной атаки. Проверку необходимо проводить регулярно, заранее проведя меры по автоматизации процесса проверки кеша.

Выполнение алгоритмов поисковой оптимизации происходит с определенным лагом, ввиду дороговизны обслуживания поисковой системы Google или Yandex.

При использовании специальных сервисов обнаружить атаку на сайт можно до пессимизации сайта поисковыми системами.

Например, можно настроить сканирование сайта специальными системами. Для проверки сайта на вирусы существует бесплатное решение Manul от Yandex. Также существует проверка от Google — Safe Browsing.

При обнаружении атаки или если позиции сайта в результатах поиска понижены, следует обратиться в поддержку поисковой системы.

Ферма ссылок. Манипуляции с внешним ссылочным профилем

Google Bowling — еще один тип атаки, принцип заключается в размещении плохих внешних ссылок для нанесения удара по позициям сайта конкурента в выдаче поисковой системы. Google накладывает санкции на сайты за покупку ссылок. Недобросовестные оптимизаторы поняли, что ссылки можно использовать против сайтов конкурентов, покупая ссылки низкого качества на сайт конкурента.

Размещая ссылки на плохих площадках можно понизить рейтинг сайта. В результате, Яндекс и Гугл могут понизить позиции сайта в поисковой выдаче.

Также может быть использована ферма ссылок. Фермой называется группа взаимосвязанных сайтов с одним и тем же контентом. Сайт, подвергшийся нападению с использованием фермы ссылок, может быть никак не связан с фермой.

Злоумышленник может включить ключевое слово продвигаемого сайта в анкор-лист ссылок, чтобы ссылочный профиль выглядел как манипуляционный, и сайт подпадет под санкции из-за фермы ссылок.

Защита от атаки на ссылочный профиль сайта

Проверить внешние ссылки можно при помощи инструмента от MegaIndex.
Ссылка на инструмент — Внешние ссылки.

После определения списка плохих ссылок, для отражения атаки следует отправить список ссылок в Google Disavow Tool для дезавуирования ссылок.
Ссылка на сервис — Google Disavow Tool.

Также провести выгрузку ссылочного профиля сайта можно посредством API. Полный список методов доступен по ссылке — MegaIndex API.

Пример запроса для сайта wixfy.com:

Пример запроса для smmnews.com с фильтром по анкору:

Скрапинг. Применение DMCA

Скрапингом называется процесс копирования контента с сайтов и последующее использование на других сайтах. Подобный контент поисковые системы отмечают как копии, поскольку текстовое содержимое, скопированное с одного сайта, используется без каких-либо изменений на другом сайте.

Поисковые системы накладывают санкции на сайты со скопированным контентом.

Но популярные поисковые системы Google и Yandex могут не точно определить основной источник контента. Конкуренты используют скрапинг в качестве оружия против сильных соперников в поисковой выдаче.

После публикации копии, злоумышленник также может подать жалобу в DMCA. В жалобе указывается, что именно сайт конкурента скопировал контент, а не наоборот. После рассмотрения, документ первоисточник может быть исключен из выдачи.

Защита от скрапинга

Использовать меры защиты именно от процесса копирования контента практически нет смысла. Способ скопировать контент найдется.

Что оптимизатор может сделать, так это найти копии контента со своего сайта в интернете и далее сообщить об этом Google и подать жалобу в DMCA первым.

Ссылка для подачи жалобы на сайте Google — Google DMCA

Если было скопировано размещенное на YouTube видео, жалоба принимается по следующей ссылке — Авторское право на YouTube

Раннее обнаружение и уведомление о копии контента — единственный способ избежать наказания.

Для доказательства о первоисточнике при подаче жалобы можно предоставлять ссылку на страницу из архива.

Агрессивный краулинг. Качественное уменьшение скорости загрузки сайта

Конкуренты часто нападают на сайты используя технологию агрессивного краулинга или DDoS.

При агрессивном краулинге сайт регулярно и постоянно сканируется роботом, что приводит к нагрузке на сервер. После применения атаки, сайт начинает открываться с большим лагом.

Атака приводит к тому, что краулер Googlebot перестает получать доступ к сайту, и Google просто удаляет сайт из поискового индекса, отметив что сайт недоступный.

Защита от агрессивного краулинга

Если вы обнаружили, что сайт начал открываться долго, то стоит немедленно обратиться к администратору сервера и проверить источник нагрузки.

Вы можете оперативно провести обнаружение атаки и исключить источник атаки на сайте посредством файла .htaccess.

Пример скрипта размещен на indexoid.com.

Манипуляции с сателлитами

Добиться полного удаления сайта из выдачи можно путем манипуляционного использования сети сателлитов.

Для исключения сайта из выдачи достаточно создать множество сайтов сателлитов, разместить на сайтах сателлитах скрытый от поисковой системы рекламный блок c рекламой сайта конкурента и отправить жалобу в поисковую систему Google посредством формы spam report.

Рекомендованное чтиво по теме на сайте MegaIndex по ссылкам далее:

Яндекс будет пессимизировать сайты, покупающие seo-ссылки

Сегодня Яндекс опубликовал новость, что сайты, покупающие seo-ссылки могут ранжироваться ниже. Вот текст новости.

С 15 мая сайты, для продвижения которых используются SEO-ссылки, могут ранжироваться ниже.

Яндекс неоднократно заявлял, что SEO-ссылки негативно влияют на экосистему интернета, поскольку вместо улучшения качества сайтов ресурсы тратятся на накрутку и финансирование создания низкокачественных сайтов для продажи ссылок.

В прошлом году мы полностью отключили учет ссылок в ранжировании для части коммерческих запросов в Москве. Это привело к некоторым изменениям в соответствующих тематиках, однако использование SEO-ссылок продолжает оставаться массовым видом спама. По нашим наблюдениям, многие сайты тратят деньги на покупку ссылок в силу привычки, даже когда это не приносит никакой пользы.

Мы приняли решение сделать следующий шаг в борьбе со ссылочным спамом. Немедленно избавиться от вредной привычки будет сложно. Поэтому новый алгоритм будет раскатываться постепенно и коснется в первую очередь сайтов, которые занимаются закупкой ссылок давно и в больших масштабах. С учетом того, что снятие ссылок и переиндексация страниц происходит не мгновенно, мы настоятельно рекомендуем владельцам сайтов не ждать отдельного предупреждения и отказаться от покупки ссылок как можно быстрее.

Единственно верное направление развития Вашего сайта — это системное улучшение сервиса, контента и дизайна, то есть инвестиции в удобство и оригинальность.

Побольше говноссылок с сапы на конкурентов?) Сомневаюсь что будет корректно работать.

@Junk, думаю, что не все так просто и работать такая схема не будет.

Как всегда, пока половина выдачи не выкинут в топ 50+ все будут сомневаться.

Как с ПФ и всяикими юзераторами и продвигаторами. (Правильно пора рубить под ноль работу ссылок), еще бы за копипаст выкидывали бы сайты и 100% работал бы сервис оригинальные тексты и все будет нормально.

Всем по заслугам и трудам.

Побольше говноссылок с сапы на конкурентов?)

Да в Яндексе не дураки. Они рубанут те сайты которые на протяжении какого то времени закупались в больших объемах..

А чтоб конкурента вольнуть, начинайте закупать ссылки, может месяцев через 6-8 и получится что(если денег и время не жалко). А за неделю и за две ничего не будет.

Качественный хостинг Тут может быть ваша ссылка.

@BLIK,но зато если не сработает, то конкуренту только поможете, давно уже яндекс хотел отменить влияние ссылок, но все работало все равно.

Побольше говноссылок с сапы на конкурентов?) Сомневаюсь что будет корректно работать.

А потом конкуренты дружно вас завалят такими ссылками.

Уже с 2008 года яндекс такую песню заводит,в 2012 сказали что уже все точно — ссылки не работают, и что изменилось? Теперь ссылочные биржы и барыги не кричат на всех форумах дразнилками новичков, которые только ГС смогут сделать. Сейчас профессионалы только работают в этих темах, поверьте мне что рынок ссылок будет жить чуть ли не вечность. Сам продаю около 6000 ссылок в майлинк, и непомню сколько в сапе.

Поведенческие это аналог ссылок и их тоже будут накручивать, это даже легче будет сделать.

Яндекс и вправду подобное давно поет. но не об этом. Допустим что и в самом деле ссылки не будут больше ввообще положительно влиять. Я улучшаю дизайн своего сайта, удобность, пишу качественные статьи, но у меня место в выдаче около 100 позиции. А конкуренты со своим унылым «г» на первых позициях, как мне отхватить долю рынка? учитывая что НЧ я буду это достигать очень долго

Если вы можете наугад в полной темноте пробраться к собственной кровати, ни разу не ушибившись, значит, пора путешествовать!

У меня коммерческий сайт для которого влияние ссылок было отключено в первой «волне», я тогда покупкой ссылок совсем не промышлял, что закупал потом — сейчас потихоньку сливаю.

Из наблюдений за конкурентами — многие в ту первую волну «посыпались», но потом мал-по-малу все вернулось на круги своя. Подозреваю что все-таки из-за внутренней оптимизации, т.к. на настоящий момент в топе много ресурсов с тощими пузами и диагнозом «дистрофия».

Еще одна напасть. Одно лечим — другое калечим.

С помощью Сергея выяснил что cайт переоптимизирован — начал исправлять, появились положительные результаты, НО. Сайт один, а основных ПС — две. В Яше стало все гораздо лучше, а Гоша приревновал к Яше. И вылилась для меня эта ревность в районе «-20:-30» позиций в выдаче. Сейчас еще к отмене влияния дополнительно грозят пессимизацией.

С одной стороны идет борьба за качество рунета, с другой стороны нас подталкивают к мысли создания персональных сайтов для Яши и Гоши.

Была у меня мысля в роботсе на одном сайте открыть доступ только для Я, а на другом — для всех окромя него. Соответственно и оптимизировать с учетом наклонностей и симпатий каждой ПС отдельно. «Старшие товарищи» оценили идею как «не айс», а как быть в этом случае.

Сделал сайт «для людей» без ссылочной иглы и переоптимизации — Яша рулит, Гоша — пинает, сделал сайт с большим количеством ключевиков и закупился ссылками: в фаворе у Гоши, в опе у Яши.

И куда податься бедному оптимизатору? Хоть на митинг выходи «За единый алгоритм ссылочного ранжирования. «

Два монстра меж собой бьются за сферу влияния, а мы как всегда «меж долбанных».

Нет слов — одни выражовывания и эмоции.

@ShowPrint, да да, таже проблема, т.к. держу также коммерческий сайт. Вся соль в том, что страницы под коммерческие ключи низкочастотниками выводить в топ рравносильно что рогаткой по слону бить. Необходимо хотя бы СЧ выводить, а там сильная конкуренция и каким способом вывести хотя бы в топ 10 без закупки ссылок?

Я смотрю у нас множество схожестей и в проблемах и в мнениях))

А расскажите, каким образом сайт был переоптимизирован и какие изменения после советов внедряли? Если не против, напишите в лс, пообщаемся по этому поводу!

Если вы можете наугад в полной темноте пробраться к собственной кровати, ни разу не ушибившись, значит, пора путешествовать!

я свела тут в одном посте очень-очень подробно все ссылки, мнения известных SEO-специалистов, часть видео с выступлением Садовского, тезисы из доклада и пр. http://seoandme.ru/m. i-borolsya.html

@AnnaYa, спасибо за подборку материалов — интересно.

Мои 5 копеек, тезисы-размышлизмы, на что это может быть похоже.

— вполне возможно что Яша завершил формирование своей внутренней базы сайтов активно продающих ссылки;

— «долбить» могут начать сайты имеющие ссылки с большого количества доноров этой базы;

— очень похоже на провокацию, уже в настоящий момент Яша скорее всего ведет особенно активное наблюдение за всеми сайтами, анализируя снятие ссылок и тем самым:

а) вычисляет ресурсы находящиеся на ссылочной игле и «берет их на карандаш»

б) пополняет свою базу сайтов занимающихся продажей ссылок (анализируя с каких сайтов резко уменьшается количество ссылок)

— допускаю что основная масса сайтов, вычисленных посредством этого механизма, посте 15 мая может поймать санкции Яши «за продажу»

— верю в то, что топить таким образом конкурентов не получится — на основе сбора и анализа статистики ресурса легко реализуется прослеживание логической нити: если сайт ранее не был замечен в агрессивной закупке ссылок, получает большой прирост говноссылок — то его «топят». По крайней мере очень хочется верить в этот момент.

— допускаю что разработан провокационный алгоритм что-то вроде: временное резкое небольшое(10-20 поз.) понижение в выдаче и пристальное наблюдение за поведением, если у «подопытного кролика» уменьшается кол-во входящих ссылок, то приговор «грешен»; в противном случае позиции плавно могут восстанавливаться.

— чего точно не следует делать с настоящего момента: это размещать новые страницы с одновременной закупкой ссылок (даже супер-качественных) на эти страницы — следует дождаться сначала индексации этой страницы ПС и только потом на нее могут начинать ссылаться другие ресурсы (надеюсь логика понятна)

В качестве квинтэссенции:

1. Подсознательно (спинным мозгом) ощущаю большое количество «провокационного момента», так сказать кто задергался, у кого глазки забегали — тот и грешен. Своего рода психологическая атака.

2. Еще раз стоит проверить качество закупленных ссылок и начать сливать все сомнительные — но уж точно не резко. Супер-качественные можно оставить. или на последнюю очередь. или до получения «красной карточки».

Недавно было обсуждение темы о том, что у ПС есть огромное количество способов наблюдения за ПФ пользователей, в том числе и при помощи инфы сливаемой браузерами — думаю что все здравомыслящие понимают что наблюдение за ПФ не «утка», а реальность. НО. Не стоит останавливаться на этом осознании. Продолжая «логическую цепочку» я сейчас задал себе вопрос — а что мешает Яше также наблюдать за веб-мастерами и сеошниками? И не нашел для себя ни одного убедительного ответа. Также можно отслеживать и посещение ЯВМ и сапы, фиксировать привязку IP, сайтов в личном кабинете и закупаемых ссылок (3 в 1) и делать выводы.

Почему-то уверен что в Янде, помимо толпы платонов работают 2-3-5-10 мощных аналитика, которые вполне могут составить грамотный алгоритм, талантливым программерам не составит труда его реализовать, а уж в том что мощностей серверов Янда хватит на сбор и анализ статистики нет особых сомнений.

Прошу прощения за сумбур изложенных мыслей — утро, моск еще не до конца проснулся.

Что хотел сказать: ссылочная пессимизация теоретически возможна (реализуема с большим процентом достоверности), не стоит к этому относиться с большим недоверием.

Что хотел посоветовать: в своих действиях стоит вести себя по возможности «максимально естественно», не поддаваясь на провокацию, двигаясь в направлении указанном Яндексом, но без резких панических шагов — с энтузиазмом, но без фанатизма.

Все вышеизложенное — сугубо ИМХО, просто мысли из собственной головы.

Google, у вас проблемы. Как крупнейшему поисковику побороть фейки

Проблема формирования качественной поисковой выдачи Google связана с повсеместным распространением фейковых новостей. Сможет ли Google преодолеть её?

Последние несколько месяцев Google столкнулась с претензиями, связанными с качеством поиска. Долгое время поисковый сервис был условным «золотым стандартом». Результаты, полученные с помощью Google, практически не вызывали сомнений. Но сейчас компанию все чаще обвиняют в том, что на результаты ее работы надеяться нельзя. Кризис столь глобален, что его можно сравнить с кризисом Apple после запуска Apple Maps или проблемами Samsung после взрывающихся Samsung Galaxy Note 7. Однако в отличие от этих компаний, защитить Google от потери доли на рынке может отсутствие реальных конкурентов. Попытки Bing стать конкурентом Google, по большому счету, успехом не увенчались, по крайней мере, вне американского рынка. Тем не менее, компании нужно что-то делать с репутационными потерями.

Что не так с поиском Google

В ноябре прошлого года Google оказалась втянутой в скандал вокруг фейковых новостей в Facebook. Вначале интернет-сообщество активно обсуждало распространение фейков в Facebook, связанных с избирательной кампанией по выборам президента США. Засилье фейков в Facebook стало предметом обсуждения людей, далеких от интернета. Со временем рост популярности фейковых новостей отобразился и в выдаче Google. В частности, при поиске результатов голосования на выборах в США в новостном блоке Google оказались ссылки на фейковые страницы.

Не успел утихнуть скандал вокруг «избирательных фейков», как The Guardian опубликовал статью, анализирующую выдачу Google по ряду запросов. При этом журналисты провели эксперимент и проверили, как Google формирует блоки с ответами. Для этого запросы задавались «умному» голосовому помощнику Google Home, который озвучивал найденные результаты.

Обнаруженные факты поражали. Например, Google Home сравнивал женщин с проститутками, отрицал факт Холокоста и делал множество других весьма спорных выводов. Позже обнаружились и другие проблемы в формировании расширенных сниппетов (featured snippets) – блоков с ответами на вопрос и с фактами, помогающими понять его суть. Например, в таком блоке было сказано, что бывший президент Барак Обама замышляет переворот.

Куда пролезли фейки: что Google стоит исправить в работе поисковика

Популярность сайтов с фейковыми новостями наряду с особенностями работы алгоритма Google привели к общему снижению качества работы поисковой системы. Это особенно заметно в некоторых возможностях Google.

Автозаполнение

Несколько недель назад Google начала тестирование инструмента, который бы позволил сообщать о неприемлемых вариантах автозаполнения. Тем не менее, до сих пор в списке автозаполнения, предлагаемом для ввода, можно найти странные и даже нежелательные пункты. Чаще всего они связаны с запросами о политике, расовых группах, национальностях и сексуальной ориентации.

Это будет продолжаться до тех пор, пока функция будет основана на наиболее частых запросах. Действительно, много людей задают такие спорные и неполиткорректные запросы. Формируя на их основе список автозаполнения, Google всегда будет сталкиваться с неприемлемым содержанием. Bing, кстати, работает не так однозначно.

Чтобы решить эту проблему, Google стоит как можно быстрее запустить жалобы на спорные пункты и улучшить способы фильтрации оскорбительных предположений.

Поисковые сниппеты

В своей работе уже несколько лет поиск от Google стремится избавить пользователей от необходимости искать и часто предлагает готовый ответ на поисковый запрос. Однако в этих ответах могут оказаться не только неполиткорректные, а еще и ложные сведения. Для решения этой проблемы, возможно, Google следует устранить поисковые сниппеты как элемент выдачи, особенно там, где они не нужны. Это поощрит людей оценивать различные результаты, а не фиксироваться на одном конкретном ответе.

Правда, это усложнит работу умных колонок Google Home и персонального ассистента Google Assistant и даже где-то позволит им потерять основное конкурентное преимущество перед Apple Siri и Amazon Echo. Даже если система оценки контента от Google, стартовавшая несколько недель назад, будет работать «на отлично», это не защитит поисковую выдачу от других проблем. Например, от Google-бомбинга. По большому счету, у любой попытки дать точный ответ есть вероятность появления неясных или неточных ответов.

Одним из вариантов решения этой проблемы может быть подсказка, подчеркивающая пользователям, что поисковая система дает не точный ответ, а всего лишь «лучший из предположительных», поощряя рассмотреть и другие ответы.

Главные истории

Проблема поддельных новостей или сайтов сомнительного содержания в блоке «Главные истории» – это исключительно результат политики Google. Компания сознательно отказалась от включения в этот раздел только проверенных новостных сайтов еще в октябре 2014 года. Именно по этой причине в новостном блоке Google можно встретить не только официальные ресурсы, а любые другие сайты. Среди них могут быть и сайты с фейковыми новостями.

Можно, конечно, пойти по пути Рунета и требований к агрегатору новостей включать в свою выдачу только проверенные сайты, более того, отвечать за достоверность размещаемого контента. Однако такие шаги – не борьба с фейками, а проявление цензуры.

Более того, возврат к проверенным источникам не решит проблему. Ведь есть проверенные источники, подающие информацию только с одной стороны. Теоретически, их тоже можно запретить, но тогда и это тоже будет цензурой.

Поиск никогда не будет идеальным

По большому счету, кризис, с которым столкнулась поисковая система Google – это положительное явление, это повод что-то улучшить. Текущая ситуация вынуждает компанию решить, наконец, вопросы, не терпящие отлагательств. Не ясно, как Google сможет решить свою главную проблему качества поиска. Ведь результат поиска никогда не будет идеальным и единственно верным.

Google обрабатывает 5,5 млрд запросов в день. Причем около 15% из них – это новые запросы, которые никогда ранее не задавались. Google пытается отвечать на эти вопросы, анализируя миллиарды страниц из интернета. Каждый раз давать идеально точный и правильный ответ – задача практически невыполнимая. Почти для любого запроса в выдаче можно найти некорректные или сомнительные результаты. Однако эта проблема становится более актуальной на фоне появления спорного контента в сети и большого количества людей, занимающихся фактчекингом или просто тех, кто знает условно правильный ответ.

Еще одна проблема для специалистов по поиску и разработчиков алгоритмов поисковой системы состоит в работе в новых условиях. Если раньше они имели дело с SEO-спамом, который пытался достичь высот поисковой выдачи, то сегодня они должны бороться и с фейками, которые положительно воспринимаются аудиторией. О популярности этих фейковых страниц говорят их доходы от рекламы.

Мы должны продолжать требовать от Google высокого качества поиска, но нужно понимать, что совершенство в этом вопросе недостижимо. Что с несовершенными поисковыми системами мы будем вынуждены использовать навыки критического мышления, а не просто вслепую доверять ответу. И этому же нам стоит учить будущие поколения.

Жизнь сама по себе редко имеет «один правильный ответ» на любой вопрос. Ожидать такой единственный ответ от Google будет большой ошибкой.

Пессимизация

Что такое «Пессимизация»?

Одним из достаточно эффективных способов раскрутки Интернет-сайта является оптимизация текстов сайтов. Но случается так, что оптимизаторы используют слишком много повторений ключевых слов в тексте страницы. Наказание за такую бессмысленную процедуру носит название пессимизация.

Суть этого карательного момента владельца сайта заключается в понижении позиций ресурса в поисковых системах. Еще одно немаловажное последствие пессимизации – это отключение так называемого ссылочного ранжирования сайта.

Впервые термин «пессимизация» был использован в 2003 году разработчиками одной из популярных на сегодняшний день поисковых систем. Пессисизация бывает двух основных видов: автоматической и ручной. Итак, в чем же разница между первым и вторым вариантами?

Автоматическая пессимизация осуществляется поисковым роботом, который вычисляет слишком переоптимизированные страницы и понижает их ранг при запросе пользователей в поисковых системах.

Под ручной пессимизацией понимается накладывание на сайт специальных фильтров в результате сообщения от любого физического лица о том, что конкретный сайт нарушает те или иные правила.

Разумеется, наказание за нарушение правил вступает в силу после тщательной проверки Интернет-ресурса квалифицированными специалистами – модераторами.

Устранить все моменты пессимизации можно, но для этого владелец сайта должен исправить все недочеты своего детища и обратиться к сотрудникам службы поддержки поисковика.

Как спасти сайт от пессимизации?

Пессимизация — это снижение позиций сайта в результатах поисковой выдачи. Обычно это происходит в результате воздействия фильтров поисковых систем. Пессимизация позволяет очистить ТОП от малоинформативных и неинтересных сайтов. также для поисковиков пессимизация является эффективным способом воздействия на тех веб-мастеров, которые используют полулегальные или нелегальные методы раскрутки своих ресурсов.

Как же избежать пессимизации и спасти от нее сайт?
Для этого следует пользоваться только «белым», то есть легальным продвижением сайтов, а также создавать такие ресурсы, которые будут соответствовать требованиям пользователей, а не поисковых систем.

Пессимизации могут подвергаться следующие виды сайтов:
1. Сайты, которые копируют или переписывают информацию с других ресурсов и не создают оригинальный контент на своем ресурсе.
2. Такие сайты и страницы, на которых главной целью является перенаправление посетителей на другие ресуры добровольно или автоматически при помощи редиректа.
3. Такие сайты, которые предоставляют информацию или товары по партнерским программам, но для пользователя не имеют никакой ценности.
4. Переоптимизированные сайты с текстами, «заспамленными» ключевыми словами.

Таким образом, следует избегать подобных ошибок. Чтобы сайт не подвергся пессимизации следует регулярно наполнять сайт новыми статьями, уникальной информацией, поменьше пользоваться редиректом и быть полезным для пользователей.

За что могут пессимизировать сайт?

Прежде всего оговоримся: не надо путать пессимизацию и бан. Если первая означает лишь искусственное снижение позиции вашего сайта при выдаче по запросам пользователей плюс отключение ранжирования ссылок, то при бане ваш сайт «выгоняют вон» из индекса поисковика.

Очевидно, что бан налагается за очень серьезные и систематические нарушения. За что же можно схлопотать пессимизацию?

Во-первых, ваш сайт могут пессимизировать за злоупотребление обменом нетематическими или автоматическими ссылками. (Отметим, что использование входящих ссылок пессимизацией не карается.)

Во-вторых, автоматическая пессимизация (усилиями поисковых роботов) применяется к «переоптимизированным» страницам. В таких случаях робот присваивает сайту специальный индекс, который понижает рейтинг данной страницы в выдачах поисковика по пользовательским запросам. Как результат, сайт при выдаче поискового результата может рухнуть на 50-60-е, а то и на 100-е место.

Отсюда логично вытекает требование: не заспамляйте свой сайт SEO-статьями. В случае ручной пессимизации (модераторами) вам возможно укажут на подобное нарушение и дадут срок для их исправления.

Ну и в-третьих, как ни огорчительно, сайт могут пессимизировать и ваши конкуренты — например, посредством Dos-атаки в момент произведения обновления, взломом сайта, закачкой вирусов и прочее. Об этом тоже следует помнить и принимать надлежащие меры защиты сайта от хакеров.

Топ-пост этого месяца:  Как обновить Angular 6 до 7 новые функции и преимущества последней версии
Добавить комментарий