12 ошибок MFA-сайтов, которые грозят санкциями в Яндексе


Содержание материала:

Кейс: Санкции Яндекса которые накладываются за текстовый спам

Текстовый спам это один из самый поплуярных видов санкций со стороны Яндекса. В 90% случаев сайт пессимизируется, т.е. занижается в выдаче.

Вся проблема санкций за текст заключается в том, что вы не будете знать, что ваш сайт под санкциями.

В Вебмастере Яндекса высвечивается бан, только за «Баден-Баден»:

В остальных случаях вы не увидите каких либо санкций со стороны Яндекса в Вебмастере.

Просто не увидите и всё.

В этом вся проблема. Санкции есть, но вы их не видите.

Суть действия этих «невидимых» текстовых санкций в следующем:

Ваш сайт «стоит» и никуда не двигается. Вы работаете над сайтом, вылизываете дизайн, улучшаете ПФ, а сайт «стоит колом». Поисковый трафик капает, но его немного и он не увеличивается. Вы заходите в Вебмастер, а там нет никаких санкций. Вы пишите Платону, а там вам отвечают, что на сайте нет никаких санкций.

Если у вас такая ситуация, то ваш сайт пессимизирован за текстовый спам.

Чтобы такого у вас не было, вам нужно просто исключить возможность возникновения этого спама. Я перечислю самые основные вида такого спама.

Серый цвет текста на белом фоне

Такой текст считается слабовидимым, а значит спамным. Яндекс считает, что владелец сайта специально написал этот текст, чтобы пользователь НЕ ВИДЕЛ этот текст, а видел только робот. Поэтому на такой сайт накладываются санкции.

Аналогичный эффект получается если на чёрном фоне сайта напишите серым текстом.

Тут выход один — срочно менять на всём сайте цвет шрифта текста. С серого на чёрный.

После этого нужно всё страницы сайта как можно быстрее переиндексировать и с вашего сайта снимутся санкции.

Большое количество ключевых слов в тексте

Если ключевых слов в тексте статьи много, но не наступает Баден-Баден, то это пограничная ситуация и за это также накладываются санкции.

В тексте ключевое слово должно содержаться не более одного раза. Это нужно чтобы предотвратить переоптимизацию текста ключевыми словами. Нужное ключевое слово робот найдёт на вашей странице, а этого достаточно чтобы быть в ТОПе по данному запросу.

Большое количество текста на странице

Если на странице сайта больше 2000 символов, то вероятность наложения санкций — 80%. На коммерческом сайт не читают тексты, там смотрят картинки, товары, цены, характеристики, способы доставки. Вступительные тексты там не должны быть большой длины. Если тексты большой длины, то Яндекс считает, что такие тексты созданы для роботов.

Большое количество скопированного текста из прайсов

Очень часто так бывает, что выгружается база товаров, а вместе с ней текст описаний и характеристик этих товаров. И если для страниц этих товаров не добавлять уникальные коротки тексты, то большая вероятность, что на ваш сайт будут наложены санкции.

Чтобы такого не происходило, нужно для каждого товара добавлять 2-3 предложения описания данного товара.

Но общий рецепт для всего этого такой — Просто перепишите тексты на вашем сайте согласно этих рекомендаций:

Размер текста – 600 символов

Весь текст уникальный.

Ключевое слово встречается в тексте ровно 1 раз.

Страница раздела и подраздела:

Размер текста – 400-500 символов

Весь текст уникальный.

Ключевое слово встречается в тексте ровно 1 раз.

Карточка товара(услуги):

Размер текста – 300 символов

Весь текст уникальный.

Ключевое слово встречается в тексте ровно 1 раз.

Если вы будете придерживаться данного ТЗ при написании текста, то ваш сайт никогда не попадёт под текстовые санкции Яндекса.

В конце хочу заметить, что у вашего сайта могут быть очень хорошие ПФ, очень хороший крауд-маркетинг и куча других положительных факторов, то всё это перечеркнётся текстовыми санкциями. И когда вы их уберёте, то ваш сайт резко взлетит в ТОП.

Похожие посты:

Твитнуть of your page

Добавлю. Часто на сайте пишут воду, не то чтобы совсем непотребный контент, но никакой полезной нагрузки для пользователя он не несёт, это убивает ПФ.

Ещё могут копировать одну и ту же смысловую нагрузку с одной страницы сайта на другую, похожий по смыслу контент на 3 и более страницах сайта, что тоже хуёво.

Явный сигнал, что с текстом что то не то, когда яндекс сливает трафик по одним и тем же запросам, не включая другие слова которые есть на странице сайта, это значит что он не берёт в учёт или часть текста, или целиком весь текст.

Можно писать больше 2000 символов текста, если он уникален, имеет ахуенный смысл и очень полезен для пользователя. Обязательно нужно обильно разбавлять пиздатой графикой. Но это редкость. На большинстве страниц магазина например хрен вам удастся написать по 2000 символов текста которые хоть кому нибудь будут интересны. В сайте каталоге можно или в сайте организации, но таких страниц оч. мало там.

Для себя уяснил, что текстовая составляющая сайта по прежнему имеет ахереть какое важное значение, не меньше чем диз, юзабилити или показатель отказа. Т.е. за эту тему вы можете улететь в царство вечного очка очень быстро и на долго (пока не исправите).

Ещё 1 совет. Можно быстро проверить всё ли в порядке с контентом на странице или сайте. Если с поиска у вас идёт трафик с:
1) Большим количеством НЧ запросов — разных.
2) Сами запросы отличаются вариативностью, т.е. они не однотипные, а разные исходя из текста страницы и тематики сайта.
3) Нормальные поведеньческие по НЧ запросам и по разным ключевикам.

Если эти 3 правила верны, можно не трогать контент, по крайней мере критичных моментов у вас нет.
Пишу исходя из своего опыта работы с клиентскими сайтами, которые сам не делал. Оч. часто хуй ложат на контент, или тупо копи пастят его, или пишут откровенную воду, или хуёво верстают или ебашут объёмами и ключевиками, как писал автор статьи. Это ебель на самом деле, потом по 20 — 35 страниц переделывать полностью, времени дохуя отнимает (если это не ИМ, если ИМ то так вообще пизда).

А можно такие же критерии перечислить для информационного сайта

MFA сайты в 2020 году — что это такое, примеры MFA + как заработать на AdSense в бурже и Рунете

Контекстная реклама — выгодный инструмент пассивного заработка. Вебмастер устанавливает на MFA сайт JS код AdSense или PCA и дальше обеспечен стабильным доходом в $1-$9 и более с 1000 показов все время, пока на сайте есть трафик. Кроме этого, сайты с монетизации через AdSense хорошо продаются на специальных биржах, например, Telderi.

Что такое MFA сайт

Это сайт созданный для заработка на контекстной рекламе. Аббревиатура MFA расшифровывается, как «made for adsense». Такие сайты оптимизируются и продвигаются для сбора поискового трафика по низкочастотным запросам, а монетизируются с помощью AdSense (и РСЯ в Рунете).

Также MFA сайты можно использовать для других целей:

  • Слива трафика на подходящие по тематике CPA офферы;
  • В качестве сателлитов для размещения тематических ссылок на основной сайт.

В большинстве случаев MFA перегружены рекламными блоками и не несут полезной информации. И это также подталкивает посетителей кликать по рекламным блокам, адаптированным под дизайн и цветовую гамму страницы.

Признаки сайта под AdSense

Такие сайты создаются с одной целью, заработать на контекстной рекламе, поэтому большинство их несложно определить по следующим признакам:

  • Простой дизайн, не позволяющий посетителям отвлекаться от рекламы;
  • Блоки AdSense или РСЯ расположены сверху и в большом количестве разбросаны по странице;
  • Контент — низкокачественный рерайт или результат парсинга нескольких источников;
  • Вследствие своих особенностей у MFA сайтов высокий CTR и большой показатель отказов.

Существует качественные сайты, также рассчитанные на заработок с контекстной рекламы, но наполненные интересным и уникальным материалом, с красивой версткой. Такие ресурсы существуют гораздо дольше и в долгосрочной перспективе приносят больший заработок своим владельцам.

Особенности MFA сайтов в 2020 году

Google и Яндекс наказывают сайты за нарушения своих правил. Санкции выражаются в бане сайта (полном удалении из результатов поиска) или отдельных страниц, смещении сайта с первой страницы результатов поиска на 20-30 позиции и далее. В обоих случаях MFA сайт теряет трафик и перестает приносить доход.

Такие санкции накладываются именно за характерные черты типичных MFA — копирование чужого контента, отсутствие пользы для посетителей, переоптимизацию текстов и большое количество рекламы на страницах.

Все фильтры направлены на одно — поисковые системы хотят, чтобы сайты были полезны посетителям и пытаются убрать некачественный ресурсы.

Для вебмастера это означает, что нужно сокращать количество рекламных блоков, использовать уникальный и более качественный контент, даже если это MFA. Необходимо добиться, чтобы ваш ресурс постоянно привлекал новых посетителей. Доля таких посетителей должна быть не меньше 50%-80% всей аудитории MFA сайта (пруф). Кроме этого, он обязательно должен быть оптимизирован для мобильных устройств.

Что лучше, РСЯ или AdSense

Вебмастерам в Рунете доступны две системы контекстной рекламы. У каждой из них свои преимущества, и недостатки:

  • С Google AdSense легче начать заработок, так как нет ограничений по посещаемости сайта, больше различных форматов объявлений. А с февраля 2020 года появились автоматизированные объявления, которые подстраиваются под страницу. Недостатки — минимальная сумма снятия $100 и расчеты в долларах привели к оттоку рекламодателей;
  • У РСЯ хорошая техподдержка, много рекламодателей под русскоязычный трафик и удобнее расчеты. Но в эту систему не принимаются сайты на бесплатном хостинге и с менее 100 посетителей в день. Кроме этого, нужно заключать официальный договор и предоставлять документы.

Вебмастер и оптимизатор Сергей Сосновский сравнил эффективность двух систем контекстной рекламы для нескольких сайтов на одинаковом трафике (пруф), результат:

Особенности и отличия этих систем описаны в нашей статье «Что лучше: Яндекс.Директ или Google AdSense».

Сколько можно заработать на MFA сайте

По отзывам вебмастеров, заработок на контекстной рекламе зависит от тематики, настройки рекламных блоков на сайте и каналов в AdSense. Например, в развлекательной тематике заработок от $1 до $1,5 с тысячи посетителей. Для сайтов на английском языке по медицине средний доход с 1000 показов — $4.8, по финансам — $8.5.

В Рунете доход с 1000 показов на сайте по кредитам составляет $44 однако, если подобрать оффер, то можно зарабатывать и больше.

Выбор тематики MFA сайта

Учитывая предназначение этих сайтов, нишу нужно выбирать по следующим параметрам:

  • Наличие рекламодателей;
  • Цена клика;
  • Популярность тематики, наличие трафика.

В идеале вам нужно найти тему, в которой сочетается два фактора:

  1. Пользователи постоянно ищут обзоры, инструкции или справочную информацию по этим товарам или услугам;
  2. Продавцы этих товаров рекламируются в AdWords или Яндекс Директ. Либо в CPA сетях есть подходящие офферы.

В любой нише с дорогими кликами будет и высокая конкуренция. Избежать ее можно, сосредоточившись на узкой тематике, оптимизируя и продвигая низкоконкурентным запросам. Обычно это низкочастотные и информационные запросы.

Что такое информационные запросы

Это поисковые фразы, которые вводят люди в поисках инструкций, описаний или сравнений товаров, чтобы научиться что-то делать самостоятельно или найти информацию. Такие запросы обычно начинаются со слов «как», «когда», «почему», «инструкция», «характеристика», «описание», «отзывы».

Как подобрать запросы для MFA сайта

Для сбора ключевых слов откройте инструмент Google AdWords Планировщик ключевых слов и выполните следующее:

  • Перейдите в раздел «Варианты ключевых слов»;
  • Введи фразу в соответствии с темой будущего MFA;
  • Установите фильтры, чтобы получить фразы с меньшей конкуренцией. Например, если вы хотите сделать MFA сайт по детским велосипедам, исключите фразы со словами «купить», «магазин» и включите только содержащие слова «как», «выбор», «инструкция»;
  • Отметьте чекбоксы нужных фраз и кликните по «Скачать варианты ключ. слов».

Для MFA сайта на русском языке можно использовать сервис подбора слов Яндекса. Однако тут фразы придется копировать вручную и переносить в таблицу Excel или Google Таблицы.

Можно отталкиваться не от конкретных фраз, а найти большой сайт в выбранной тематике и воспользоваться сервисом анализа конкурентов SpyWords. Также для сбора запросов с низкой конкуренцией в Рунете можно использовать специализированный сервис mutagen.ru.

Как создать MFA сайт

Процесс создания площадки для заработка на AdSense состоит из следующих этапов:

  • Выбор тематики сайта;
  • Сбор ключевых слов;
  • Написание или покупка статей, поиск и создание другого контента;
  • Покупка домена и хостинга. Некоторые хостинги при оплате на год, предоставляют бесплатно домены. Например, на www.reg.ru можно заказать хостинг за 93 рубля в месяц и получить два домена .RU и .РФ;
  • Установка CMS. Самой популярной является WordPress. И для этого движка есть специальные плагины (например, Quick Adsense) и темы, оптимизированные под AdSense. Например, Ad-Sense;
  • Публикация статей;
  • Добавление сайта в Google Search Console и Яндекс Вебмастер;
  • Продвижение MFA.

После этого нужно установить рекламные блоки. Как это сделать, рассказывает статья о размещение кода AdSense на сайте.

Дополнительные способы заработка на MFA

Способность MFA сайта привлекать низкочастотный поисковый трафик можно использовать и для слива на партнерские программы. Практически все рекламодатели разрешают и ценят органический трафик из Google или Яндекса.

Например, если у вас сайт по финансовой тематике, то с такого MFA можно лить на банковские или кредитные офферы.

Выводы

Один сайт для заработка на контекстной рекламе могут приносить десятки или сотни долларов в месяц. Такой пассивный доход можно масштабировать, просто продолжая создавать новые MFA. Главное, уделять внимание качеству контента и всего сайта. Чтобы зарабатывать больше, совмещайте контекст в баннерами или виджетами подходящих по тематике офферов. А как получить заработанные на MFA сайте деньги рассказывает статья про вывод денег с Google Adsense.

Санкции Яндекса и их симптомы

Если продвигаешься под Яндекс, необходимо хорошо ориентироваться в санкциях и держать руку на пульсе. В противном случае, свои и клиентские проекты могут терять ощутимую долю трафика, а значит деньги.

Ежегодно крупнейший поисковик Рунета подкидывает оптимизаторам что-нибудь новенькое из «штрафов», чтобы не расслаблялись и искали новые возможности. Часто в SEO выигрывает тот, кто находится на грани между «добром» и «злом», в нескольких шагах от границы «переспама».

Цель Яндекса – показывать пользователям как можно более качественные ответы на их запросы. Санкциями он старается регулировать качество сайтов на выдаче и пресекать попытки попадания в ТОПы сайтов с помощью накруток.

Типы фильтров Яндекса

Разберем какие фильтры встречаются в каждом типе, симптомы и способы выхода.

Манипуляции с текстовыми факторами

Фильтр «Переспам» существует с февраля с 2010 года и уже практически не встречается, поэтому в рамках статьи его рассматривать не будем.

Переоптимизация

Достаточно популярный автоматический фильтр, цель которого – наказывать документы за переизбыток использования ключевых фраз или несоответствие страницы ключевым словам, под которые она оптимизирована.

  1. Проседание документа по позициям по большинству распределенных на него запросов после апдейта.
  2. Запросы теряют примерно 20-30 позиций.
  3. Трафик на посадочную страницу сильно падает.
  4. Редко, но бывают случаи ручного наложения санкций. При этом в Яндекс.Вебмастере появится уведомление:

Способы проверки: воспользоваться методом попарного сравнения документов. Для этого служит бесплатныеинструменты от Пиксель Тулс «Проверка на переоптимизацию» и Александра Арсенкина «Проверка текстового пост-фильтра «Переоптимизация»».

Как выйти: уменьшать плотность вхождений в контенте страницы, заголовке Title, атрибутах картинок Alt и Title, а лучше всего полностью поменять контент страницы:

  • Определить интент пользователей, которые попадают на вашу страницу
  • Придумать блоки, которые помогут решить задачу пользователя
  • Выстроить блоки в виде макета
  • Заказать и разместить контент
  • Отправить URL измененной страницы в «Переобход страниц» в Я.Вебмастере

Срок выхода: 2-3 апдейта.

«Новый» или «Севальневский» фильтр

Появился на свет в 2014, но так и не получил за это время собственного имени. Севальневским его называют по фамилии эксперта Дмитрия Севальнева, который первый диагностировал его появление.

  • В отличие от фильтра «Переоптимизация» проседает не одна, а сразу группа тематических страниц (кластер сайта).
  • Запросы сильнее проседают и выпадают из ТОП-100.

Способы проверки: по методу попарного сравнения документов. При этом нужно анализировать сразу несколько документов по нескольким запросам. Инструмент Александра Арсенкина «Проверка текстового пост-фильтра «Переоптимизация»» умеет определять данный фильтр:

Как выйти: повторить комплекс мер для выхода из-под фильтра «Переоптимизация», при этом также рекомендуют:

  • Уменьшить длину заголовка Title до 70 символов
  • Уменьшить объем текста, по-максимуму ликвидировав «водные» предложения
  • Проверить текст на орфографию и пунктуацию, например, отдав на вычитку корректору.
  • Убрать выделения HTML тегами с ключевиков: , , и т.д.
  • Убрать излишние вхождения ключевиков с тегов заголовков

.
  • Проанализировать вхождения ключевиков в alt и title у изображений.
  • Добиться равномерного распределения ключевых фраз в контенте страницы.
  • Отправить URL измененной страницы в «Переобход страниц» в Я.Вебмастере
  • Срок выхода: 2-3 апдейта.

    Фильтр на одинаковые сниппеты

    Накладывается в случае, когда у страниц совпадают мета-теги Title, Description и текст описания. При этом сниппет может формироваться из различных источников. Наиболее часто такая ситуация встречается у карточек товаров и категорий интернет-магазинов.

    • Страницы выпадают из ТОП-100, при этом оставаясь видимыми, если добавляешь в адресную строку параметр &rd=0.

    Способы проверки: вбивать запросы, распределенные на исследуемую страницу, с параметром &rd=0 и анализировать результаты выдачи. Также полезно в качестве запроса использовать точную форму заголовка Title.

    Как выйти: использовать глобальную уникализацию.

    • Ручное написание заголовков Title и Description. В случае если их количество велико, внедрение генераций мета-тегов (шаблоны тегов для категорий и карточек).
    • Уникализация (добавление) описания товара или категории.
    • Размещение уникального описания выше к началу документа.
    • Добавление сгенерированных полезных блоков текста.
    • Закрытие неуникальных сквозных блоков в NOINDEX, такие как Новости компании или блок о публичной оферте.
    • Дождаться переиндексации документов.


    Срок выхода: 2-3 апдейта в зависимости от количества страниц и скорости их переиндексации.

    Баден-Баден запросозависимый (младший брат)

    Накладывается на документ за использование «SEO-текстов», цель которого понижать в выдаче переоптимизированные страницы и избавить рунет от напичканных ключами бессмысленных текстов.

    По сути это всё тот же пост-фильтр «Переоптимизация», но в новой реализации. Название «запросозависимый» он получил за то, что часть запросов с зафильтрованного документа не проседают.

    1. Аналогично переоптимизации:

    Проседание документа по позициям по большинству распределенных на него запросов.

  • Запросы теряют примерно 20-30 позиций.
  • Трафик на посадочную страницу сильно падает (возможен анализ с помощью Я.Метрики: фильтрация по точкам входа с трафиком только из Яндекса).
  • Способы проверки: проверять наличие фильтра по методу попарного сравнения документов. Проще воспользоваться бесплатным инструментом от Пиксель Тулс «Проверка на переоптимизацию» или Арсенкина «Проверка текстового пост-фильтра «Переоптимизация»».

    Как выйти:

    • Для интернет-магазинов: ликвидация текстов на категориях.
    • Для сайтов услуг: Вычитка текстов и удаление водных блоков «не о чем», не несущих полезной информации для пользователя.
    • Удаление скрытых или частично скрытых текстов, например, через конструкции display:none и средствами jquery.
    • Уделить внимание заголовку Title: как минимум убрать из него двойные вхождения ключевиков.
    • Заняться удалением в текстах повторений ключевиков из двух, трех и более слов, особенно с использованием регионов.
    • Отправить переработанные страницы в «Переобход страниц» в Я.Вебмастере.

    Срок выхода: 1-2 апдейта.

    Баден-Баден хостовый (старший брат)

    Накладывается на весь сайт за использование «SEO-текстов», когда количество нарушений на сайте по мнению Яндекса становится очень велико. Фильтры накладываются, как и снимаются, волнами, отследить которые можно только в специализированных форумах и группах в социальных сетях. Периодичность волн также постоянно меняется.

    • Сайты под этим фильтром теряют до 90% трафика, оставляя по большому счету только брендовый.
    • Проседания позиций по всем запросам составляют примерно 20 позиций.

    Способы проверки: В Я.Вебмастере в разделе «Нарушения и угрозы безопасности» появляется уведомление:

    Как выйти: Провести мероприятия аналогично запросозависимому, за исключением того, что изменения нужно вносить на всём сайте. Закрытие блоков в NOINDEX не поможет.

    • Для интернет-магазинов: ликвидация текстов на категориях.
    • Для сайтов услуг: Вычитка текстов и удаление водных блоков «не о чем», не несущих полезной информации для пользователя.
    • Удаление скрытых или частично скрытых текстов, например, через конструкции display:none и средствами jquery.
    • Уделить внимание заголовку Title: как минимум убрать из него двойные вхождения ключевиков.
    • Заняться удалением в текстах повторений ключевиков из двух, трех и более слов, особенно с использованием регионов.
    • Отправить переработанные страницы в «Переобход страниц» в Я.Вебмастере.
    • Выждать около недели на переиндексацию и нажать кнопку «Я всё исправил» в Я.Вебмастере.
    • После внесения правок написать в поддержку Яндекса с целью определения все ли правки внесены. В некоторых случаях Платон Щукин присылает примеры страниц с нарушениями.

    Срок выхода: 2-4 месяца в зависимости от размера сайта и правильности выполненных действий.

    Манипуляции со ссылочными факторами

    Фильтр «Ссылочный взрыв» часто упоминается в литературе, но мало кто знает, какие последствия для сайта он несет. Суть его в резком накоплении ссылочной массы, например в сотни доменов за короткий период. Результатом является обнуление эффекта ссылок на ранжирование вашего сайта. В связи с появлением других фильтров такая ситуация маловероятна.

    Минусинск

    Как и хостовый Баден-Баден, Минусинск накладывается на весь сайт целиком. Причина: чрезмерное использование SEO-ссылок для продвижения.

    Яндекс утверждает, что может определять является ли ссылка коммерческой (купленной, неестественной) в 96% случаев. При накоплении критической массы таких ссылок накладывается фильтр.

    В 2020 году безопасным является порог в 200 ссылающихся доменов. При наличии большого количества естественных ссылок, этот порог можно увеличить.

    • Сайты под этим фильтром теряют до 90% трафика.
    • Проседания позиций по всем запросам составляют примерно 20 позиций.
    • В ТОПе остаются только брендовые запросы и часть низкочастотных.

    Способы проверки: В Я.Вебмастере в разделе «Нарушения и угрозы безопасности» появляется уведомление:

    Как выйти: наиболее короткий путь к выходу из-под фильтра – максимально быстрое снятие коммерческих ссылок на сайт. Если есть доступы к биржам и нужным кампаниям – отлично! Это ускорит процесс.

    • выгрузить архив внешних ссылок из Я.Вебмастера
    • вычислить какие ссылки в каких биржах закупались. Если доступов к кампаниям нет, может помочь бесплатный инструмент «Барыга Чекер» от Check Trust.
    • арендованные ссылки снять все разом
    • почти во всех биржах есть функционал съема ссылок – пользуйтесь.
    • если ссылки закупались с компании другого подрядчика, можно через поддержку биржи получить права на управлению кампанией
    • писать вебмастерам напрямую через контакты или whois
    • выждать какое-то время и нажать кнопку «Я всё исправил» в Я.Вебмастере

    Срок выхода: от 1 до 4 месяцев в зависимости от количества ссылок и скорости их снятия.

    Непот фильтр (внешний)

    Цель фильтра – борьба с покупной ссылочной массой. Его характерное отличие от других санкций – воздействие не на сайт пользователя, а на конкретные внешние ссылки.

    Если алгоритмы Яндекса считают ссылку спамной, она не учитывается в ранжировании. Другими словами – это «выкинутые деньги». При этом Яндекс принимает решение на анализе пары «Донор» — «Анкор», где «Донор» — это сайт, с которого ставится ссылка, а «Анкор» — текст ссылки.

    Заметить отсутствие влияния конкретной ссылки довольно сложно. Есть специальные техники диагностики работает ли ссылка или нет.

    Способы проверки:

    Существующие способы имеют ряд ограничений, когда выявить находится ли ссылка под Непотом невозможно:

    • Анкор ссылки встречается в тексте документа в точном виде.
    • Есть другие ссылки с таким же анкором.
    • Ссылка учтена Яндексом, и страница с ней проиндексирована.
    • Страница, на которую ведет ссылка, также проиндексирована.

    В этом случае можно воспользоваться инструментом от PixelTools «Проверка на Непот», т.к. в ручную проводить проверки трудоемко.

    Как выйти:

    Случаев выхода ссылки из-под фильтра не было. От смены анкора санкции не снимается.

    Непот фильтр (внутренний)

    Наказывает за излишние манипуляции с внутренней перелинковкой. Часто накладывается в ручном порядке сотрудниками антиспама Яндекса.

    • Отсутствие пользы для пользователей
    • Спамные длинные конструкции текстов ссылок
    • Отсутствие достойного оформления
    • Только уникальные анкоры ссылок
    • Проседания позиций по всем запросам составляют примерно 20 позиций.

    Способы проверки:

    При подозрении на фильтр имеет смысл обратиться в службу поддержки.

    Как выйти:

    В случае подтверждения со стороны поддержки, необходимо ликвидировать спамные блоки, отправить нужные страницы в «Переобход страниц» и ещё раз написать в поддержку.

    Срок выхода: от 1 месяца.

    Манипуляции с поведенческими факторами

    Фильтр за накрутку поведенческих факторов

    Одно из самых жестоких наказаний. Карается за попытки накрутки поведенческих факторов с помощью специализированных бирж. Например, за регулярные переходы по ключевым словам из Яндекса и выполнения на сайте целевых действий по шаблонным методикам.

    • Сайты под этим фильтром теряют до 90% трафика.
    • Проседания позиций по всем запросам составляют примерно 20 позиций.
    • В ТОПе остаются только брендовые запросы и часть низкочастотных.

    Способы проверки: В Я.Вебмастере в разделе «Нарушения и угрозы безопасности» появляется уведомление:

    Также о факте наложения санкций можно узнать, написав в службу поддержки Яндекса.

    Как выйти:

    • Остановить любые виды накрутки.
    • Проанализировать Я.Метрику на предмет необычной активности со стороны пользователей, в особенности изучить переходы из Яндекса, поведение пользователей.
    • Удостовериться в том, что любые накрутки прекратились.
    • Начать переписку со службой поддержки Яндекса.

    Бывают случаи накрутки конкурентов, поэтому мониторингом не стоит пренебрегать.

    Срок выхода: от 6 месяцев. Сразу имеет смысл задуматься о смене домена, если это возможно.

    Другие фильтры

    Фильтр за назойливую (избыточную) рекламу

    Присутствие на сайте большого количества рекламы, а в особенности агрессивной (попандеры, кликандеры и другие) может стать причиной наложения фильтра. Ключевым фактором является раздражение пользователей, которой отражается на поведенческих метриках сайта.

    • Сайты под этим фильтром теряют до 50% трафика.
    • Присутствие на сайте большого количества всплывающих окон с рекламой

    Способы проверки:

    В Я.Вебмастере в разделе «Нарушения и угрозы безопасности» появляется уведомление:

    Как выйти:

    • Убрать рекламу
    • Написать в поддержку Яндекса
    • Ждать апдейта

    Срок выхода: 1-2 недели.

    Фильтр за «взрослый» контент (Adult-фильтр)

    Яндекс стремиться ограничивать показ сайтов с неприличным контентом по приличным запросам. Необходимо следить за наличием на сайте контента 18+, ненормативной лексики, ссылки на adult-сайты.

    Сайт исчезает из выдачи Яндекса по коммерческим и инфозапросам, кроме «взрослых» запросов.

    Способы проверки:

    Можно попробовать поискать сайт, отключив фильтрацию страниц в настройках поиска:

    Опции довольно сложно найти: Настройки -> Поиск -> Результаты поиска.

    Как выйти:

    • Ликвидировать причины наложения фильтра.
    • Написать в поддержку Яндекса.

    Срок выхода: до 1 месяца.

    АГС (низкое качество сайта, продажа ссылок)

    Фильтр наказывает низкокачественные сайты и сайты, активно торгующие внешними ссылками. Так сказать, оборотная сторона Минусинска.

    • тИЦ сайт обнуляется.
    • Трафик с Яндекса существенно проседает.

    Способы проверки:

    • При проверке нахождения сайта в Яндекс каталоге значение показателя тИЦ выводится как «не определено».
    • В Я.Вебмастере в разделе «Нарушения и угрозы безопасности» появляется уведомление:

    Как выйти:

    • Снять размещенные внешние ссылки с сайта
    • Отправить страницы в «Переобход страниц»
    • В случае наложения фильтра за качество сайта провести комплекс мер по его улучшению, например:
      • Удаление бессмысленных статей с сайта
      • Проработать оформление контента
      • Сменить хостинг
      • Провести технический аудит и исправить проблемы
      • Добавить качественного уникального контента
    • Написать в поддержку, нажать кнопку «Я все исправил» в Яндекс.Вебмастере

    Срок выхода: от 1 до 3 месяцев.

    Мы рассмотрели наиболее популярные виды санкций Яндекса, знание которых поможет вам сэкономить время и деньги. Желаем удачи в SEO-борьбе, и пусть качество вашего сайта будет держать фильтры Яндекса на расстоянии.

    Избавляемся от фатальной ошибки в Яндекса

    С сентября 2020 года резко выросло количество оповещений в панели Вебмастера Яндекс о фатальной ошибке, причём часто под санкции попадают сайты, которым под фильтром по теории поискового заговора делать нечего. Что это за… откуда деньги у атамана и как избавиться от фильтра? Начнём с погружения в глубину проблемы:

    Обнаружены нарушения или проблемы с безопасностью

    Первопричина санкций

    За последние года Платон Щукин и К не раз устраивал веб-мастерам Варфоломеевскую ночь. Начиналось всё с борьбы со ссылками и со временем переросло в нечто больше, требующее погружения в основы бизнеса.

    Яндекс компания коммерческая и акционеры желают в лучшем случае получать прибыль, в худшем видеть нововведения со стороны руководства. Лучший случай тесно переплёлся с худшим, и под флагом борьбы за качество поисковой выдачи Yandex начал забирать 80% прибыли от создателей сайтов. Так как коммерческие проекты более богаты, то начали с них, убедительно объяснив без применения насилия, что благо для бизнеса – это Директ.

    Ссылки на 90% ушли в небытие, коммерция низко наклонив голову ушла в Директ и наступило время информационных сайтов. Увести их в контекстную рекламу массово не получится, но дырки в бюджете надо закрыть, если не прибылью, то активностью (читать выше). Массовое появление в панели фатальной ошибки говорит о чистке поисковой выдачи. Какая тут прибыль? Всё просто – режутся сайты с небольшой и средней посещаемостью, им на смену приходят ущербные порталы типа fb.ru, которые сами едят со стола Директа и его кормят.

    Формальная причина фатальной ошибки

    Алгоритмы ранжирования Яши учитывают тысячи различных факторов, поэтому всегда найдётся таракан за дверью, которого владелец сайта не успел пришибить шлёпанцем. Боты снуют по сайтам и, если у ресурса нет крыши в виде большой посещаемости и рекламы Директа, то ресурс получает фатальную ошибку.

    Помните «был бы человек, а статья найдётся»? Яндекс использует присказку на 100%, добавив в неё только выверт «чужой человек».

    Итак, появляется фатальная ошибка в 90% случае из-за:

    1. Рекламы Google в первом окне,
    2. Большого % страниц с малым объёмом информации,
    3. Жизненной кармы веб-мастера,
    4. Просто так.

    Если увидели в панели:

    Позиции сайта в результатах поиска понижены

    То грустный клоун пришёл и на вашу улицу.

    Признаки санкций – падение трафика на 40-80% и откат позиций на 20-30 мест в глубины выдачи.

    Лечимся

    Тяжело лечиться, если врач на лету придумал тебе диагноз, но жизнь требует биения сердца, поэтому надо пытаться избавиться от фатальности Яши. Вот перечень действий, которые могут прийти на помощь при санкциях:

    1. Съём рекламы с первого экрана,
    2. Удаление или disallow страниц небольшого объёма (малополезных),
    3. Форматирование больших, но портяночных страниц,
    4. Здоровый сон.


    В 2 случаях из 5 ошибка пропадает при переотправке сайта на проверку без каких-либо телодвижений. Ещё в одном случае помогает съём рекламы. На конец октября 2020 не могу сказать, что поможет в 2 оставшихся случаях, возможно, Яндекс сам поймёт, что если так рубить лес, то жить скоро придётся среди пней и откатит санкции, вернув веб-мастеру надежду.

    Также советую не печалиться при фатальной ошибке, ведь жизнь много шире, чем потеря трети трафика и клейма санкционщика на лбу.

    Санкции вебмастера Яндекс (фатальные ошибки) — предупреждения, или что это.

    Сегодня коснёмся ошибок сайта в вебмастере Яндекса, которые он последнее время щедро раздаёт администраторам площадок: тема весьма обширна и бесконечна в плане разговоров, ибо нет никаких существенных пояснений от, скажем так, законодателей ПС Яндекс, а значит — предполагать можно бесконечно.

    Ниже рассмотрим примеры подсказок в вебмастере о фатальных ошибках: когда, мол…

    …по мнению алгоритма пс Яндекс, наш сайт угрожает безопасности пользователей… или практически прямое обвинение администрации сайта в спаме, бесполезности ресурса (его контента) для соискателей в интернете и пр. и пр. о чём весьма расплывчато говорят сообщения в инструментарии Яндекса.

    вебмастер поисковой системы Яндекс — ошибки сайта

    (мне пришло в течение недели несколько писем, в которых коллеги-новички просили разъяснить (личную) ситуацию в веб мастере Яндекс.

    Должен к своей величайшей радости доложить, что и на одном из моих подопечных сайтов наблюдается описанная проблема. Сайт достаточно новый, администрация пока что относит себя к разряду новичков, а посему я и помогаю иногда…

    Так вот, чтоб не говорить много раз одно и то же, решил написать такой коротенький пост размышление…

    Однажды мы заходим в святая святых вебмастера и наблюдаем следующую картину: (к слову, это предупреждение относится Яндексом к фатальным ошибкам)

    Если кликнуть по восклицательному значку, то нас перебросит на страничку с более подробными описаниями проблемы и пр.

    Впрочем, вот симпатичные фразеологизмы, сформулированные «веб мастером Я. в помощь «наказанному владельцу сайта»:

    Сайт может угрожать безопасности пользователя, или на нём были обнаружены нарушения правил поисковой системы. Наличие этой проблемы негативно сказывается на положении сайта в результатах поиска.

    Позиции сайта в результатах поиска понижены

    Сайт не соответствует основным принципам (ссылка подсказки //yandex.ru/support/webmaster/yandex-indexing/webmaster-advice.xml ), по которым наши алгоритмы оценивают его качество: содержит бесполезный контент, чрезмерное количество рекламы, поисковый спам и т. п.

    Обычно ограничения снимаются в течение месяца после устранения нарушения.

    И ещё одно пояснение владельцу сайта, в котором говорится, что на всё про всё (т.е на исправление вебмастером ошибок, и переиндексацию сайта роботом) дан месяц до следующего нажатия на кнопку.

    Следующая возможность отправить сигнал об исправлении появится через 29 дней

    Что получается? …если мы, скажем, исправили свои ошибки, которые, к слову сказать, многим владельцам не ясны, у нас есть возможность отправить запрос на перерассмотрение нашего сайта на ошибки.

    В течение месяца, ПС обещается разрешить проблему и устранить предупреждения!! если ошибки устранены.

    Мне подумалось вот о чём: (конечно же, это сугубо личное мнение)

    Картина такова: есть сайт. На сайте обнаружены грубые ошибки (которые констатируются Я. как фатальные — в русском языке, это понятие попросту значит — кирдык)). А слово «кирдык» все знают что такое — конец! Естественно, начинающий админ горько переживает! А, главное, не знает как решить эти задачи ошибок: с чем я вынужден согласиться — подобные пояснения, крайнее свинство со стороны ПС.

    Я не знаю! кто составлял такие пояснения. На мой взгляд, должны быть хотя бы более менее ясные указания на ошибки. Далее…

    Особенно забавляет вот что: предположим, сайт кем-то изначально создавался как ГС! — для продажи ссылок, спама и прочей фигни… Авторы сего сайта это прекрасно понимают и им откровенно по болту все эти предупреждения в вебмастере.

    Но вот когда такие ласковые напоминания об ошибках приходят добропорядочному новичку (и пусть он не всё ещё понимает в веб разработках… путь совершает какие-то ошибки: он ведь на то и новичок) — тогда подобные предупреждения звучат как-то не по-человечески!

    Владелец сайта очень переживает… нервничает… а некоторые (есть и такие) в итоге бросают ведение блогов/сайтов…

    Хочется задать сакраментальный вопрос: с кем останется ПС?? …хотя, вопрос мой, конечно, так себе…

    Теперь, со своей стороны, заступлюсь и за поисковые системы, ибо — те всего-то машины; а этакие неосторожные по отношению к психике ближнего формулировки составляют люди:

    или веб мастер Яндекс прав, указывая на ошибки?

    В сети интернет миллиарды сайтов… колоссальное количество!

    Давайте зададимся таким вопросом: вот как, скажите, градировать… разделять машинам (ПС роботам) наши сайты на «хорошие» и «плохие»?

    Правильно! весьма сложный вопрос. К тому же, мы по сути находимся пока ещё у истоков развития индустрии интернета! Что там времени-то прошло от великого начала…

    Машины при всей своей «памяти» пока ещё не обладают разумом. И нам с вами, новичкам, думается, стоит это понимать.

    И, как это ни прискорбно понимать новичку, порою (я бы даже сказал — зачастую) сам автор сайта виноват в наложении подобных санкций, предупреждений.

    Если указки ПС типа: заспамленности, опасности для пользователей можно отнести к разряду древней софистики… то бесполезность контента имеет место быть!!

    Заспамленность и, в какой-то мере, опасность видны визуально, и не требуют для выявления каких-то особых знаний… Прилежный админ может всё это запросто исправить.

    …тогда как многие из владельцев сайтов ни в какую не хотят понять, что перекопирование материала к себе на сайт с чужих ресурсов (частично, или полностью) расценивается поисковиками как воровство.

    к тому же: многие seoшники утверждают, будто б можно своровать у самого себя и получить за энто по шапке сайта: именно поэтому и закрывают от индексации всякие странички категорий или тегов от поисковиков, тем самым исключая дублирование контента.

    Я лично, к этим убеждениям — дублирования самого себя в пределах домена)) — отношусь достаточно прохладно, ибо считать машины тупее себя, не этично) Но вполне допускаю, что в программах ПС присутствует алгоритм «воровства», копипасты… а в том числе повторение текстов, привязанных к домену.

    Смею предположить, что именно вот к этой копипасте как раз и придираются поисковые машины (как бороться с дублями страниц, описано в статьях, пример кода и ссылки ниже).

    И напоминаю, алгоритмы для ПС пишут люди!

    Я видел много сайтов изнутри, и видел, как администратор пытается развить свой ресурс посредством банального перекопирования материала с чужой площадки… Я не хочу сказать, что этакие желания всегда движимы какими-то злостными побуждениями… нет! …скорее… частенько — наивностью… от халвы: т.е халявы))

    Не забывайте об этом.

    Следует всегда помнить о том, что поисковой робот не обладает и каплей разума! и скорее отнесёт невинное перикопирование к воровству, нежели… ну, вы понимаете…

    Печатать на своём сайте можно всё, что угодно, но только тогда, когда он обретёт кое-какой вес в сети среди себе подобных… А пока наш с вами ресурс молод, всё-таки следует придерживаться определённых правил интернета в целом, пусть не всегда ясных и понятных, но это — правила, как ни крути:

    1 — если копируете известный материал к себе на сайт, то:

    а) предайте ему максимальную уникальность, или

    б) закройте от индексации страничку с таким контентом.

    …если приводите в тексте какую-то чужую объёмную цитату (ну или даже из своей какой-то опубликованной ранее статьи) от греха — закройте её в теги цитирования

    закрываем от индексации странички с не уникальным контентом

    Закрыть странички от индексации просто, я об этом говорил множество раз…

    подробнее описано, например, здесь (там далее по ссылкам). Или в этой статье рассказано об условных тегах (как раз на основе них и отрабатывается код ниже).

    В коде я дал примеры «закрытия рубрик» is_category , страничек сайта is_page и записей is_single — где просто (в скобках) указываете >77 …и пр…

    Таким образом, после прописки показанного выше кода к себе на сервер, например, в файл функций functions.php активного шаблона, — в шапке сайта (в мета), если откроете исходный код Ctrl+U , будет автоматически сгенерирован метатег под кодовым понятием robots , а именно вот такая штука:

    …где noindex обозначает неиндексирование поисковым роботом контента (что нам и требуется). а follow — разрешает проход роботу по документу: робот будет видеть ссылки и переходить на полезные открытые документы: т.е страничка будет не бесполезна… в отличие от того, если её прикрыть напрочь ! типа: noindex,nofollow .

    Рекомендую пользоваться именно этим способом закрытия страниц, но не банально в файле robots.txt .

    А когда закрываете описанным выше способом — непременно — снимите ограничения в robots, коли таковые были прописаны!

    Короче: на мой взгляд, зачастую все эти предупреждения вебмастера Яндекса и пр. — фигня! хотя, конечно, огорчают немного. И стоит немного потрудиться — всё будет здорово!

    Чего я вам с великим удовольствием и желаю!

    …думаю, вы и без меня знаете — и всё же, считаю долгом напомнить: иногда бывают ситуации, о которых и не подозреваешь!!

    вроде бы всё хорошо, контент уникальный… но сайт никак не желает идти вверх к приличной посещаемости… и вдруг — бац!! — предупреждение от вебмастера Яндекса.

    Настоятельно рекомендую, даже если у вас новенький домен, в течение нескольких месяцев проверять внешние ссылки (не ссылаются ли на ваш домен ресурсы спамеров: порно и пр. вредности в этом плане)) — всё это может обернуться неожиданными сюрпризами, которые очень и очень негативно скажутся на продвижении сайта: ну, хотя бы здесь тестируйте — //www.linkpad.ru/

    Не ленитесь — проверяйте историю домена перед тем как запустить проект! Частенько бывает так, что всякие мошенники избавляются от своих отработанных доменов! а мы, ничегошеньки не подозревая, приобретаем…

    Будьте внимательны к своему избранному адресу сайта (доменному имени) — ибо частенько бывает так, что, к примеру, Яндекс веб мастер обвиняет в заспамленности вашего ресурса. В подобных случаях оч. трудно доказать, что ты не свинья!!

    Интересуйтесь подробнее жизнью своего сайта в интернете)) — ведь проще !! не доводить сайт/блог до состояния критических ошибок, нежели потом решать их!

    . А мне остаётся только раскланяться. и пожелать полезной работы в сети

    Делитесь своими соображениями в комментариях…

    На этом занавес представления опускается…
    …на рампы пыль печальная ложится…

    Михаил ATs — владелец блога запросто с Вордпресс — в сети нтернет давным-давно.

    . веб разработчик студии ATs media: помогу в создании, раскрутке, развитии и целенаправленном сопровождении твоего ресурса в сети. — заказы, вопросы. разработка.

    Почему сайт просел в поиске: 9 фатальных ошибок, способных угробить любой сайт

    Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

      Фильтры и санкции поисковых систем

    Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

    Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

    Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

    До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

    Контент

    Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

    Проверяйте уникальность текстов перед размещением на text.ru.

    Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

    Теги Title и Description, заголовки H1-H3

    Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

    Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

    Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

    Либо переспам ключами в заголовках:

    Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

    Переезд на https

    C января 2020 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

    Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

    Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

    В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

    Файл robots.txt

    Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

    Иногда файл robots.txt отсутствует вовсе.

    Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

    Настроили ему robots, теперь все в порядке:

    Что конкретно мы сделали?

    Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

    Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

    Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

    Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

    Дублирование контента (дубли страниц)

    Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

    Одна страница может иметь как один, так и несколько дублей:

    Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

    Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

    Как найти и убрать дубли на сайте, рассказываем в данной статье.

    Зеркала сайта

    Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

    Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

    Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

    Чек-лист для проверки:

    • Сайт должен быть доступен только по одному протоколу http или https.
    • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
    • Настроен 301 редирект со всех зеркал.
    • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  • Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2020 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

    Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    12 ошибок MFA-сайтов, которые грозят санкциями в Яндексе

    Нашел на сайте КтоНаНовенького статью «Ошибки которые грозят санкциями в Яндексе».
    Там на втором месте приведена следующая ошибка:

    выбор слишком широкой тематики

    — сайт про бизнес;
    — портал о здоровье;
    — все про строительство.

    Возможно, со временем ваш проект и станет авторитетом и лидером в целом направлении, но на старте такие «наполеоновские планы» скорей погубят проект и затраченные на его развитие средства.

    Чесно говоря для меня это неожиданность. Неужели можно попасть под фильтр если у меня сайт посвящен широкой тематике (например строительство или здоровью) ? Я понимаю что узконаправленные сайты ранжируются лучше сайтов «обо всем», но разве это повод накладывать санкции ? Что в этом плохого?

    Кстати он ссылается там на каких то признаных авторитетов, мол это не мое мнение, а экспертов.

    Нашел на сайте КтоНаНовенького статью «Ошибки которые грозят санкциями в Яндексе».
    Там на втором месте приведена следующая ошибка:

    выбор слишком широкой тематики

    — сайт про бизнес;
    — портал о здоровье;
    — все про строительство.

    Возможно, со временем ваш проект и станет авторитетом и лидером в целом направлении, но на старте такие «наполеоновские планы» скорей погубят проект и затраченные на его развитие средства.

    Чесно говоря для меня это неожиданность. Неужели можно попасть под фильтр если у меня сайт посвящен широкой тематике (например строительство или здоровью) ? Я понимаю что узконаправленные сайты ранжируются лучше сайтов «обо всем», но разве это повод накладывать санкции ? Что в этом плохого?


    Кстати он ссылается там на каких то признаных авторитетов, мол это не мое мнение, а экспертов.

    Могу вам порекомендовать перестать читать этот сайт 🙂
    За 5+ лет работы никогда не встречал подобных санкций и не слышал о них.

    Единственная сложность подобного ресурса: структура сайта и распределение весов внутри. Т.е. ссылаться с одного большого раздела на другой нужно меньше, чем внутри себя. Ну и можно использовать, например, поддомены (как делает викимарт). Можно просто по категориям разложить. В общем, есть тонкости для продвижения, но санкции. чушь же.

    Санкции поисковых систем — проявление, диагностика, снятие

    Верно следуя открытому Ньютоном закону природы — любому действию всегда есть равное и противоположное противодействие — сотрудники антиспам отделов Яндекса и Google формулируют в своих алгоритмах множество фильтров направленных на противодействие различным приёмам оптимизации и поискового спама.

    Безусловно разделяя эти два зачастую граничащих понятия, остановимся на фильтрах, направленных на различные методы оптимизации, оставив несколько в стороне санкции, нацеленные на откровенный поисковый спам.

    1. Основные типы санкций

    Все типы санкций можно разделить на группы и ассоциировать их с причинами, повлекшими их наложение. Следуя данной классификации можно разделить фильтры на типы, с которыми сталкиваются SEO-специалисты. В таблице 1 указаны: наименование фильтра, ключевая причина применения (названия ячеек) и краткая сводка по каждому из них.

    Считается, что фильтр одновременно встречается в поисковых системах Яндекс и Google — если обратное не указано явно.

    За текстовое содержимое и микроразметку

    За ссылочную составляющую

    За поведенческую информацию

    1. «Переспам» — уменьшает значение релевантности документа по заданному поисковому запросу в Яндексе.

    2. «Переоптимизация» — уменьшает итоговое значение релевантности документа в Яндексе. Фильтр «Переоптимизации» применяется также и вручную по усмотрению антиспам-аналитиков Яндекса.

    3. «Текстовый антиспам» или «Новый» — существенно дисконтирует значение релевантности документа по запросу, что приводит к полной потери позиций по нему в Яндексе.

    4. За спам в микроразметке — ручной тип санкций поисковой системы Google за спам в разметке структурированных данных / микроразметке.

    5. «Баден-Баден» — запросозависимый алгоритм Яндекса, направленный на понижение в выдаче переоптимизированных страниц. Оценивается весь контент документа: plain text, прочее текстовое содержимое. Имеется и вторая (отдельная) часть алгоритма — хостовый фильтр.

    6. «Повторяющийся контент» — резкое (Google) или более плавное (Яндекс) проседание позиций сайта в результате использования повторяющегося текста на страницах. Может применяться из-за наличия поддоменов (Google), гео-папок (Яндекс), сквозных блоков текста и других элементов.

    7. «Ссылочный взрыв» — штрафует акцепторов при наличии неестественно высокого темпа наращивания ссылочной массы. Доноры, участвующие во «взрыве» — также помечаются как неблагонадежные.

    8. «Пингвин (версии 1.0–4.0)» — существенно понижает позиции по запросам в выдаче Google за спам в анкорах текстов входящих ссылок.

    9. «Ссылочный спам / Пессимизация» — различные типы санкций, применяемые к сайтам при манипулировании ссылочной массой (ссылочные кольца, прогоны и другие).

    10. «Внутренний/Внешний Непот» — не учёт внутренних/внешних ссылочных связей при наличии избыточной (спамной) перелинковки внутри/вне сайта.

    11. «Минусинск» — сильное понижение сайта в выдаче по всем поисковым запросам за избыточное число и долю SEO-ссылок в ссылочном профиле сайта.

    12. «Накрутка ПФ» — штрафует сайт за искусственное улучшение кликовых поведенческих факторов с применением мотивированного трафика или эмуляций действий пользователей в поисковой системе Яндекс. Ресурс продолжает нормально ранжироваться только по витальным и запросам с явным указанием URL-адресов с сайта.

    13. «Кликджекинг/Clickjacking» — понижает в ранжировании сайты, которые используют технологию кликджекинга (размещают на странице невидимые элементы с которыми взаимодействует пользователь не подозревая этого). С помощью данной технологии владельцы сайтов обманным путём могут получить номер телефона пользователя из социальной сети и прочую персональную и неперсонифицированную информацию.

    14. «Криптоджекинг/Cryptojacking» — помечает как «Сайт может быть опасен» и ниже ранжирует страницы, которые содержат скрипты, предназначенные для майнинга криптовалют с использованием вычислительных мощностей устройств посетителей проекта.

    15. «Содействие имитации действий пользователей» — понижение позиций проекта в выдаче Яндекса за использованием КАПЧИ, которая заставляет рядовых пользователей выполнять действия по накрутке кликовых поведенческих факторов. Санкция направлена на сайты, которые вовлекают посетителей в накрутку, так как действия таких пользователей сложней отследить и отфильтровать.

    Ассоциированность сайтов в группу

    За рекламную составляющую

    За «взрослое» содержимое

    16. «Аффилированность» — группирует сайты на выдаче так, чтобы в зоне видимости остался только один из сайтов группы.

    17. «На одинаковые сниппеты» — группирует сайты на выдаче в случае существенного пересечения текстовой информации используемой для сниппета в Яндексе.

    18. «Назойливая реклама» — понижает в ранжировании сайты с избыточным рекламным содержимым (popunder, clickunder, pop-up и аналоги).

    19. Обманная и избыточная реклама — понижает в ранжировании сайты с обманным содержимым во всплывающих окнах, уведомлениях и сайты с избыточным объемом рекламы.

    В случае с Google используется алгоритм Page Layout, который оценивает наличие уникального контента в видимой части первого экрана на документе (которая доступна после перехода из поиска).

    20. «За обман мобильных пользователей» — снижение общего уровня трафика проектов, которые отображают для мобильных пользователей агрессивную рекламу (подписка, кликандер, скачка и т.д.) и/или используют автоматические редиректы для посетителей с мобильных устройств.

    21. «За рекламу, вводящую в заблуждение» — пессимизация проектов на которых размещена реклама или CPA-офферы, которая вводит пользователей в заблуждение по оценке алгоритма Яндекса (оформлена как элементы навигации, не помечена как реклама и так далее). Запущен в апреле 2020 года.

    22. «За навязчивые оповещения» — понижение в результатах поиска сайтов, которые вынуждают пользователя подписаться на рекламные оповещения (push). Запущен в январе 2020 года.

    23. «Adult-фильтр» — исключает из зоны видимости сайт по «не взрослым» запросам. Сайт фигурирует в выдаче только по запросам с явным adult-интентом.

    За общее качество содержимого

    За направленность ресурса

    За обман поисковой системы

    24. «АГС» — различные версии алгоритма в Яндексе, направленные на ограничение в ранжировании и индексации сайтов созданным не для пользователей и/или размещающих с себя избыточное число исходящих SEO-ссылок.

    25. «Supplementary Results» — отображение документов с сайта в дополнительных (изначально скрытых) результатах выдачи Google.

    26. «Панда» — понижает в результатах выдачи Google сайты с низким качеством информации.

    27. «Партнёрки» — ранжирует ниже сайты-партнерки не дающие дополнительной ценности пользователям.

    28. «Псевдосайты» — ранжирует ниже или полностью исключает из индекса сайты без ценности для пользователей (по различным причинам).

    29. «Бан» — исключает из индексации спам-сайты, направленные исключительно на привлечение трафика обманными техниками, среди них могут быть:

    • «Дорвеи»
    • «Списки поисковых запросов»
    • Сайты использующие «Клоакинг»
    • «Сайты-клоны»
    • Прочие

    30. Различные типы ручных санкций «Manual Actions» в Google [15] — существенно сказываются на занимаемых сайтом позициях. Применяются в случае нарушения поисковой лицензии. Несмотря на то, что большинство санкций применяется алгоритмически, антиспам-аналитики не лишают себя возможности принять санкции вручную, если по тем или иным причинам, алгоритм обрабатывает ситуацию не до конца корректно.

    За нарушение законодательства

    31. Удаление из результатов поиска ссылок на сайты, которые нарушают законодательство (по решению суда), а также ссылок на копии таких сайтов (список копий, в России — предоставляет Минкомсвязи). В Российской Федерации — федеральные законы № 149 и № 156. В случае скрытия ряда доменов — поисковая система выводит оповещение об этом.

    Таблица 1. Сводка со всеми типами фильтров, которые использую поисковые системы, их кратким описанием и указанием ключевой причины применения санкции.

    А. Санкции за текстовое содержимое и микроразметку

    Данную группу фильтров можно отнести к одной из наиболее «популярных» при продвижении сайта в поисковой системе Яндекс. Подробно фильтры «Переспам» и «Переоптимизация» были рассмотрены в статье [1], остановимся на «Новом» фильтре Яндекса с которым оптимизаторы начали часто соприкасаться в середине 2014 года и алгоритме «Баден-Баден», запущенном в 2020 году.

    Проявление фильтра

    Во 2-3 квартале 2014 года SEO-специалисты столкнулись с резким негативным изменением занимаемых сайтом позиций по запросам различной частоты и направленности. Более детальный анализ позволил выявить следующие закономерности в поведении:

    • Сайт резко теряет позиции по запросам, выпадения составляют вплоть до 1 000 позиций, когда продвигаемый документ пропадает из зоны видимости.
    • Сайт продолжает нормально ранжироваться по запросам, к которым фильтр не был применен.
    • Небольшая модификация запроса не возвращает сайт на изначальную позицию в ТОПе, как в случае с текстовым пост-фильтром «Переспам» [1].

    Диагностика

    Возможно два различных подхода к диагностированию проблемы:

    Отслеживание динамики позиции сайта и соизмерение данной динамики с общим изменением выдачи по запросу. В данном случае — совокупно выдача Яндекса не претерпевает существенных изменений, в то время как анализируемый сайт резко исчезает из зоны видимости (часто выдаваясь на 100-400 позициях).

    Использование расширенного языка поисковых запросов. При использовании данного подхода выполняется следующая последовательность действий (проверка автоматизирована в бесплатном сервисе «Пиксель Тулс»):

    Задается исходный поисковый запрос.

    Проверяется текущая позиция анализируемого сайта.

    Текущая позиция соотносится с позицией, которая была до вероятного случая применения санкций, если она известна, в противном случае за позицию «До» принимается текущая позиция сайта.

    Выбирается 2-3 контрольных сайта, которые были ниже анализируемого до вероятного применения санкций, но на текущий момент находятся значительно выше него. Если позиция «До» вероятного случая наложения санкций неизвестна, то выбираются сайты, которые находятся выше продвигаемого ресурса на 1-3 позиции на текущий момент.

    В Яндекс задается поисковый запрос с использованием операторов расширенного поиска «site:» и «|», где выдача сужается до двух сайтов — «analyse.ru» — анализируемый сайт и «control.ru» — один из контрольной группы.

    Если позиции анализируемого сайта при данном запросе оказываются лучше сайта из контрольной группы — весьма вероятен факт наложения санкций.

    Для повышения уверенности процедура повторяется и с другими сайтами из контрольной группы.

    Данная последовательность действий полностью аналогична той, которая предложена для диагностики фильтра «Переоптимизация» [1]. Отличить данные санкции друг от друга можно по абсолютному числу потерянных позиций, в случае с фильтром «Переоптимизация» это от 5 до 30 пунктов, в случае с «Новым» оно оказывается значительно выше (от 50-60 позиций и более).

    Важно заметить, что перед проведением данной диагностики рекомендуется исключить из рассмотрения прочие возможные причины данного поведения сайта (глава 2) и [2, 17].

    Снятие

    Для снятия «Нового» текстового фильтра Яндекса рекомендуется:

    • Уменьшить длину (в словах) и спамность заголовка окна браузера Title.
    • Уменьшить число чистых вхождений продвигаемого запроса в текст документа (изначально — двукратно).
    • Пересмотреть проценты вхождений слов из данных продвигаемых запросов в сторону уменьшения (изначально — двукратного).
    • Отправить текст на корректорскую проверку, то есть — устранить все несогласованные словосочетания, трудночитаемые предложения, орфографические и пунктуационные ошибки.
    • Уменьшить объем текста (изначально — на 20-30 процентов).
    • Устранить избыточное использование html-тегов логического выделения — , , , , ,

    .
  • Добиться равномерного распределения ключевых фраз в контенте страницы.
  • В случае если действия, описанные выше, после переиндексации документа и нескольких текстовых апдейтов поисковой выдачи Яндекса [3] не принесли ожидаемого результата — рекомендуется полностью переписать текст.

    Пример

    На рисунке 1 показана характерная динамика позиции сайта в Яндексе по продвигаемому запросу в период с 30 сентября 2014 года по 31 октября 2014 года. Красными прямыми указаны периоды выпадения сайта ниже 100 места выдачи, синими — появление сайта на 2 позиции в выдаче по высокочастотному запросу по Московскому региону.

    Рисунок 1. Динамика позиции сайта в Яндексе по продвигаемому запросу в Московском регионе с указанием периодов наложения «Нового» фильтра (красные прямые) и периодов снятия санкций (синие прямые).

    Предполагается, что периодическое применение и снятие санкций может быть связано с пересмотром порогов наложения фильтра и активной работой с текстовой составляющей наблюдаемого документа на протяжении всего периода наблюдений.

    Спам в разметке структурированных данных

    Поисковая система Google вручную применяет санкции за спам в микроразметке / структурированных данных [18]. Данный тип санкций отражается в панели Search Console. Для снятия фильтра требуется: устранить замечания, после чего — направить запрос на повторную проверку.

    Баден-Баден от Яндекса

    Алгоритм, запущенный в марте 2020 года [19], направленный на понижение в результатах выдачи переоптимизированных документов. Основные сведения:

    Схожесть алгоритма «Баден-Баден» с предыдущим фильтром «Переспам» по проявлению, размеру штрафа и запросозависимому характеру.

    Размер просадки для фразы — 10-40 позиций, в зависимости от конкуренции в заданном регионе.

    Возможна диагностика путём модификации задаваемого в поисковую строку запроса.

    Б. Санкции за ссылочную составляющую

    Длительное время в истории поисковой индустрии ссылочные факторы являлись доминирующими в формулах ранжирования Яндекса и Google. Данное доминирование привело к активному развитию ссылочных бирж и в дальнейшем ссылочных агрегаторов, процесс линкбилдинга стал одним из основных в работах SEO-специалиста.

    Описанные процессы не могли не повлечь за собой развития алгоритмов антиспама уменьшающих эффективность линкбилдинга и штрафующих сайты за:

    • Чрезмерно высокие темпы наращивания ссылочной массы — «Ссылочный взрыв».
    • Неестественный вид анкор-листа документа и сайта — «Пингвин» в Google.
    • Низкое качество ссылочной массы и создание «искусственных» сайтов — «Ссылочный спам».

    Остановимся подробней на фильтре «Пингвин» от поисковой системы Google, как наиболее часто встречающемся при проведении стандартных работ по ссылочной оптимизации.

    Пример

    На рисунке 2 представлен интересный процесс многократного применения и снятия фильтра «Пингвин» для одного из продвигаемых сайтов.

    Рисунок 2. Динамика изменения трафика на исследуемый сайт из поисковых систем. Жёлтая кривая — трафик из поисковой системы Google, красная — из поисковой системы Яндекс (для сравнения и понимания сезонности спроса в тематике). Стрелками с подписями указаны как периоды активного продвижения и роста трафика (слева), так и даты применения фильтра (справа).

    Данный пример, свидетельствует о том, что обновление и факт применения или снятия санкций во многих случаях происходит автоматически и не всегда синхронизирован с датами крупных алгоритмов «Пингвина». Для сравнения приведем ниже даты и номер версии согласно официальным заявлениям компании Google [4]:

    • 1.0 — запуск алгоритма, 24 апреля 2012.
    • 1.1 — обновление алгоритма (по ряду наименований версия 2), 26 мая 2012.
    • 1.2 — обновление алгоритма (по ряду наименований версия 3), 5 октября 2012.
    • 2.0 — новая версия (по ряду наименований версия 4), 22 мая 2013.
    • 2.1 — обновление алгоритма (по ряду наименований версия 5), 4 октября 2013.
    • 3.0 — новая версия (по ряду наименований версия 6), 21 октября 2014.
    • 4.0 — новая версия, 23 сентября 2020. Основные изменения: автоматическое/алгоритмическое снятие/применения санкций, фильтрация спама, а не только санкции.

    Алгоритм по снятию санкций

    К одной из основных причин применения фильтра относится неправильная (искусственная) работа с входящими на сайт ссылками и текстами этих ссылок (анкорами). Ниже мы приведем последовательность действий, применяемую для целой группы сайтов, которая в большом проценте случаев приводит к снятию фильтра «Пингвин».

    Выгрузка полного списка ссылок ведущих на сайт. Здесь рекомендуется использовать все доступные источники внешних ссылок на сайт, от панели вебмастера Google [5] и Яндекс [6], до используемых ссылочных бирж и сторонних сервисов [7].

    Проверка всех выявленных ссылочных доноров по ряду ключевых показателей:

    • Положение ссылки на странице-доноре.
    • PR главной страницы и PR страницы-донора.
    • Число уникальных исходящих ссылок на сторонние сайты, деленное на общее число страниц в индексе Google (без учёта страниц с поддоменов в поиске).
    • Посещаемость донора в месяц (уникальных посетителей) и данные сервисов Alexa и SimilarWeb.
    • Наличие в контенте страницы-донора стоп-слов из взрослой лексики.
    • Число уникальных получателей ссылок (акцепторов) с данной страницы-донора.

    Выделение по фильтрам с применением логики оператора ИЛИ (то есть, если выполняется любое из условий) и вынесение в отдельный файл доноров удовлетворяющих условиям:

    • Положение кода со ссылкой на странице ниже 90% всего кода документа.
    • PR главной страницы менее PR страницы-донора.
    • Число уникальных исходящих ссылок на сторонние сайты, деленное на число страниц в индексе более 1.
    • Посещаемость в месяц менее или равно 900 уникальных посетителей. Если данные о посещаемости недоступны в открытом виде, то следует произвести расчёт посещаемости с помощью вспомогательных сервисов — Alexa и SimilarWeb, предварительно произведя настройку процесса оценки посещаемости сайта по базе ресурсов с открытой статистикой.
    • На странице-доноре встречаются слова из списка стоп-слов.
    • На странице-доноре более семи внешних исходящих ссылок на уникальные сайты.

    Приведение всех выявленных доноров к виду — domain:site.ru и формирование txt-файла, где каждый донор указан с новой строки.

    Проверить, что процент чистых вхождений продвигаемых фраз в новом анкоре-листе не превышает 3-4% или 12-20 вхождений в абсолютном количестве. В случае если данные пороги превышены, дополнительно произвести смену анкоров или расширить список отклоняемых сайтов.

    Отклонение полученного списка доноров посредством инструмента Disavow Links [8].

    В качестве получения дополнительной уверенности учёта данного инструмента в алгоритмах ранжирования Google предложена простая процедура проверки.

    • Выбирается уникальный анкор ссылки, такой, что он встречается только на одной странице-доноре, а сама страница проиндексирована.
    • Донор отклоняется с помощью инструмента Disavow Links.
    • Проверяется число найденных документов по запросу вида: [«уникальный анкор»] с ограничением списка сайтов для поиска до продвигаемого сайта и сайта-донора.
    • Если число найденных документов равно одному, то считается, анкор перестал учитываться при ранжировании (рисунок 3).
    • Если число найденных документов равно двум, то анкор по-прежнему учитывается при ранжировании.

    Данная проверка показывает, что анкоры отклоненные с помощью инструмента Disavow Links должны перестать учитываться при ранжировании в Google.

    Рисунок 3. Демонстрация факта исключения анкоров входящих ссылок из ранжирования с доноров, отклоненных с помощью инструмента Disavow Links через панель вебмастера Google.

    Алгоритм «Минусинск»

    В ночь с 15 на 16 мая 2015 года, Яндексом была запущена первая волна санкций за избыточное число и долю SEO-ссылок в ссылочном профиле проекта. Было понижено 488 сайтов.

    Среднее число просадки позиций по запросам — оказывается около 20. Падение происходит по всем запросам, в том числе и витальным для проекта (доменное имя, название компании).

    C подробным анализом фильтра можно ознакомиться в источнике [16], где раскрываются методы диагностики и сводки по базовым показателям пострадавших сайтов.

    В. Санкции за накрутку поведенческих факторов

    Поведенческие факторы являются ключевыми в ранжировании сайтов по средне- и высокочастотным запросам. И хотя их число исчисляется десятками [9] под пристальным прицелом оптимизаторов оказались наиболее значимые, а именно, так называемые кликовые факторы на страницах результатов выдачи:

    • Число посетителей документа из выдачи по запросу.
    • CTR сайта в выдаче по запросу.
    • Региональные срезы данных показателей.

    Именно на искусственное улучшение данной группы факторов, направлено большинство сервисов по накрутке. В чём же кроется причина данного явления?

    Историческая справка

    На рисунке 4 представлена динамика позиций одного из сайтов, который оптимизаторы, продвигавшие его, накручивали с помощью привлечения мотивированного трафика из выдачи Яндекса по запросу [вывоз мусора]. Выгрузка с историей по позициям сделана с помощью общедоступного сервиса [10] так чтобы каждый из читателей мог воспроизвести результаты.

    Видно, что в 2011 году даже по конкурентным запросам имелась возможность вывести сайт на лидирующие позиции с помощью искусственного улучшения кликовых факторов (сайт попал сразу на 2 место после апдейта поведенческих факторов, показав рост 92 пункта).

    Рисунок 4. Стремительный рост одного из накручиваемых сайтов с помощью искусственного улучшения кликовых поведенческих факторов в Яндексе в 2011 году, запрос [вывоз мусора].

    Примеров данной динамики набралось достаточно для решительной ответной реакции со стороны антиспам отдела Яндекса. В июле 2011 года была произведена существенная чистка выдачи от накрученных данным методом сайтов [11]. Изучение динамики сайтов попавших под санкции позволяет утверждать, что добиться снятия санкций удалось лишь по истечению периода от 6 до 12 месяцев после остановки процесса накрутки.

    Текущая ситуация

    Представители поисковой системы Яндекс неоднократно делали официальные заявления относительно своего отношения к накруткам поведенческих факторов [12]. Коротко — данные искусственные действия однозначно воспринимаются как спам и относятся к черным методам оптимизации.

    На текущий момент, можно утверждать, что фильтр за накрутку кликовых поведенческих факторов функционирует в Яндексе наравне с прочими санкциям и применение данной технологии оптимизации подвергает сайт существенному риску потери позиций в срок от 6 месяцев и более.

    Факты накрутки и не учёта действий пользователей могут фиксироваться с помощью большого числа алгоритмических и статистических методов. Мы остановимся на одном из изящных алгоритмов, который уже применяется в антиспаме для функционирования санкции «Ссылочный взрыв».

    Назначается некоторое пороговое значение роста посещаемости сайта из выдачи по коммерческим запросам, после которого сайт считается участвующим в «накрутке». Это может быть, скажем, более чем 30-50% увеличение поискового трафика при неизменном числе показов сайта и сниппетах.

    Список всех пользователей (IP-адресов), которые посетили заданный ресурс из выдачи за отчетный период, помечается звёздочкой.

    Выбирается совокупность всех сайтов, которые считаются «накрученными» за отчетный период.

    Формируется множество пользователей (IP-адресов), которые принимали участие в 2 и/или большем числе фактов накруток (порог может быть выбран путём перебора.

    Все действия данных пользователей (IP-адресов) игнорируются при расчётах кликовых поведенческих факторов.

    На рисунке 5 схематично изображено применение данного алгоритма, и выявление пользователя принимающего участие в накрутке и сайта указанного сверху N1 (красные стрелки и прямоугольник) и сайта указанного снизу N2 (зеленые стрелки и прямоугольник). См. также подпись к рисунку 5.


    Рисунок 5. Вероятный алгоритм обнаружения мотивированных пользователей, которые принимают активное участие в раскрутке сайтов с помощью улучшения кликовых поведенческих факторов. Красным цветом указаны пользователи принимавшие участие в накрутке сайта N1 (сверху), зеленым цветом — пользователи принимавшие участие в накрутке сайта N2. Один из пользователей, принимавший участие в обоих актах накрутки помечен двумя звёздочками и действия с его IP-адреса могут не учитываться.

    Имеются основания полагать, что составление списков «плохих» IP-адресов и их детектирование в актах накрутки поведенческих факторов и/или поисковых подсказок используются в Яндексе и позволяют улучшить алгоритмы антиспама и антикликфрода.

    Применение санкций

    Анализ текущего списка сайтов подвергшихся санкциям со стороны поисковой системы Яндекс, позволяет утверждать, что штрафуются в первую очередь сайты, которые:

    1. Являются последними в поисковой сессии пользователя осуществляющего накрутку.
    2. Имеют повышенные показатели таких метрик как (относительно других сайтов в сессии, см. рисунок 6):
      • Число просмотренных страниц на сайте.
      • Время, проведенное пользователем на сайте после захода из выдачи.

    Таким образом, учитываются стандартные паттерны поведения, лежащие в основе всех популярных сервисов накрутки, что ставит целесообразность использования данных сервисов под большой вопрос. Совместно с описанным выше методом маркировки подозрительных пользователей (IP), сайты являющимся последними в поисковой сессии — могут попадать под санкции.

    Рисунок 6. Сравнение двух паттернов поведения мотивированных пользователей, на случайных сайтах, посещенных до попадания на целевой ресурс (верхняя часть) и на раскручиваемом ресурсе, где надо проявить повышенную активность (нижняя часть). После посещения целевого сайта — поисковая сессия обычно заканчивается.

    Диагностика и снятие

    На текущий момент, оптимальным способом диагностики факта наложения фильтра за «Накрутку ПФ» следует признать — обращение в службу поддержки поисковой системы Яндекс через панель вебмастера [6].

    Сотрудники службы поддержки прямо сообщают о факте применения данных санкций к сайту, что можно воспринимать как достоверное подтверждение и способ диагностики.

    Рекомендуется, особенно в случае непричастности к актам искусственного улучшения поведенческих факторов, вступить в честный и аргументированный диалог, в котором открыто изложить свою позицию. В ряде случаев, данные действия могут ускорить процесс снятия фильтра.

    Г. Санкции за рекламное содержимое

    Одним из трендов в развитии технологий поисковой системы Яндекс — является курс намеченный на очищение Рунета от нелицеприятной, эротической и агрессивной рекламы.

    Данной проблеме был посвящен ряд официальных заявлений [13], что, по заверениям сотрудников Яндекса привело к снижению числа страниц с шокирующей рекламой — в 6 раз и с pop-up рекламой — в 10 раз. Такая активная позиция разработчиков положительно сказывается на развитии отрасли интернет-рекламы и способствует становлению вдумчивого подхода к монетизации информационных ресурсов.

    Снятие фильтра

    Для снятия фильтра за некорректное рекламное содержимое требуется произвести смену размещаемых рекламных материалов или подключенной партнерской программы и дождаться полноценной переиндексации ресурса.

    Для ускорения процесса рекомендуется после внесения существенных изменений на сайте сообщить об этом в службу поддержки поисковой системы через панель вебмастера [6].

    Д. Фильтр на одинаковые сниппеты

    Фильтр на одинаковые сниппеты наиболее характерен для товарных запросов и сайтов интернет-магазинов. Его проявление заключается в том, что с целью повышения разнообразия результатов выдачи Яндекса, скрывается ряд похожих результатов. Предпочтение отдается тем документам, у которых сниппет (Title и текст описания) существенно отличается от уже представленных результатов (см. также рисунок 7).

    Рисунок 7. Добавление в браузерную строку GET-параметра &rd=0 позволяет отображать сайты без группировки по схожести сниппетов и диагностировать фильтр.

    Для диагностики фильтра достаточно после формирования выдачи добавить в браузерную строку GET-параметр &rd=0, который сообщает поисковой системе, что требуется отображать сайты без группировки по одинаковым (или очень схожим) сниппетам.

    Далее, сверяя позицию анализируемого сайта до и после добавления параметра, в случае его резкого роста в результатах выдачи, можно диагностировать фильтр на одинаковые сниппеты.

    Снятие фильтра

    Для снятия фильтра на одинаковые сниппеты требуется:

    • Полностью переписать текстовое содержимое, используемое поисковой системой в качестве аннотации на выдаче (description или текст со страницы).
    • Скорректировать Title документа, уделив особое внимание пересекающимся с другими результатами фрагментам из 3 и большего числа слов.
    • Дождаться переиндексации документа и процесса обновления сниппетов (специализированный апдейт).

    Е. Группы аффилиатов

    При обсуждении проблемы аффилированности сайтов в группу часто звучит мнение, что это однозначно негативный фильтр или даже «смерть» одного из ресурсов. Но данное мнение не является до конца взвешенным, так как аффилированность сайтов не является отягощающим фактором при продвижении сайтов:

    1. По непересекающимся спискам поисковых запросов.
    2. По различным регионам России.

    Тем не менее, требуется уметь производить диагностику аффилированности сайтов в группы, а также понимать факторы, которые используются поисковой системой при анализе сайтов.

    Факторы

    Работа с большим числом проектов позволяет выявить следующие группы факторов, которые анализируются поисковой системой Яндекс при ассоциировании сайтов:

    1. Пересекающиеся контактные данные на сайтах и справочниках (вида Яндекс.Справочник).
    2. Дублирование каталога, услуг и цен на продукцию (массового).
    3. Схожая структура каталога товаров.
    4. Расположение сайта на одном IP-адресе или одной подсети класса C.
    5. Наличие сайтов из потенциальной группы в общих аккаунтах Яндекса.
    6. Схожесть доменных имён и названий компании.
    7. Перенаправление трафика с одного сайта на другой.
    8. Наличие перекрестных ссылок.
    9. Схожесть HTML-вёрстки и общая CMS.
    10. Пересечение внешней входящей ссылочной массы (большое число общих доноров).
    11. Ручные проверки сайтов в случае наличия жалоб в службу поддержки.

    Диагностика

    Для проверки гипотезы аффилированности двух сайтов требуется проделать следующую последовательность действий:

    Проверить, что на сайты по запросам не наложены фильтры на одинаковые сниппеты (см. раздел Д), если фильтр на одинаковые сниппеты диагностируется, исключить данные фразы из дальнейшего рассмотрения.

    Зафиксировать позиции двух сайтов по всем запросам из семантического ядра.

    Если найдена группа (из двух и большего числа запросов), по которой оба сайта одновременно находятся в ТОП-30 выдачи Яндекса — аффилированности нет.

    Если подобных фраз нет, то последовательно выбираются запросы, по которым один из сайтов находится на хороших позициях и путём исключения данного сайта из выдачи проверяется факт резкого роста занимаемых вторым сайтом позиций. Поисковый запрос при этом выглядит как [анализируемый запрос

    site:pixelplus.ru], где pixelplus.ru — сайт находящейся на хороших позициях (см. также рисунок 8 и подпись к нему).

    Если второй сайт резко появляется в выдаче, то устанавливается фильтр аффилированности.

    Рисунок 8. Диагностирование фильтра аффилированности сайтов методом исключения одного из сайтов из ранжирования с применением документированного оператора «

    ». Ситуация 1 — на 9 месте находится сайт N1, при его исключении (ситуация 2) — в выдаче резко появляется аффилированный с ним ресурс (два выделены рамкой в выдаче).

    Типы фильтра и его снятие

    Абсолютное большинство аффилированных сайтов соотносятся в группу автоматически (алгоритмом), но встречаются и случаи ручного наложения санкций. Действия для снятия фильтра ручного и автоматического типа — несколько различаются.

    Для снятия автоматического фильтра аффилированности требуется устранить пересечение двух сайтов по всем факторам, указанным в данной главе выше. Особое внимание следует уделять пунктам: 1, 2, 4, 6, 8. Для снятия автоматической аффилированности обращаться в службу поддержки не рекомендуется. После проработки ресурсов по указанным выше факторам, их переиндексации и обновления базы произойдет расклейка ресурсов.

    Для снятия ручного фильтра аффилированности требуется:

    • Устранить пересечение по факторам указанным выше.
    • Вступить в переписку со службой поддержки Яндекса через панель вебмастера [6], где привести аргументы в пользу расклейки сайтов. В качестве аргументов могут рассматриваться различные реквизиты юридических лиц, различные договоры аренды помещений и прочие значимые для бизнеса сведения.

    2. Алгоритм автоматической диагностики сайта

    Большое число фильтров (глава 1 и [2]) и их разнообразное проявление вызывает большие трудности при диагностике сайта у начинающих и даже опытных SEO-специалистов. В связи с этим, предложен вспомогательный алгоритм последовательного исключения (или определения) фильтра для заданной тройки:

    • продвигаемый запрос
    • документ
    • регион продвижения

    Имеется возможность автоматизировать диагностику сайта по списку поисковых запросов, используя заданный алгоритм действий.

    Входные данные

    На вход алгоритма подается:

    • список поисковых запросов с привязкой каждого запроса к продвигаемому на сайте документу;
    • регион продвижения сайта.

    Далее, данные переформатируются к тройкам: запрос-документ-регион и проверка производится для каждого запроса отдельно. Далее выполняется цикл диагностики для каждого запроса из списка.

    Последовательное исключение фильтров

    Ниже представлена блок-схема последовательного исключения факта наложения заданной санкции для тройки: запрос-документ-регион и выявления возможных проблем при продвижении запроса.

    Все проверки выстроены в порядке оптимальном для автоматизации процесса. Переход к следующему шагу осуществляется строго после выполнения предыдущего шага и отсутствия проблем на нём.

    Проверка разбита на 10 последовательных шагов и способна выявить: проблемы с индексацией или технические ошибки, прохождение документов кворума, наличие adult-фильтра, наличие дублей документа в индексе, фильтр на одинаковые сниппеты, аффилированность, «Переспам», «Переоптимизацию» и «Новый» текстовые фильтры, а также соответствие документа основным требованиям оптимизации [14].

    Инструмент комплексной диагностики и описанный выше алгоритм действий проверки на фильтры в Яндексе реализован в рамках экспертного, автоматизированного инструмента в «Пиксель Тулс».

    3. Заключение

    Нам удалось систематизировать всё многообразие санкций в поисковых системах и описать общие тенденции развития антиспам алгоритмов в поисковых системах Яндекс и Google. По списку перечисленных фильтров в каждой поисковой системе, можно выявить различные взгляды на существующие проблемы в информационном поиске у двух лидеров Рунета.

    Яндекс в 2013-2014 годах — в большей степени нацелен на пресечение попыток манипулирования поведенческими факторами, а также активно прорабатывает вопросы агрессивной рекламы на информационных сайтах. Под пристальным вниманием также остаются вопросы качества текстовой информации («Новый» или «Текстовый антиспам» фильтр).

    Google — видит большую проблему в манипулировании оптимизаторами ссылочными факторами ранжирования.

    Кроме того, разработчики обоих поисковых систем также решают проблему низкого качества сайтов. В Яндексе за проблему ответствен усовершенствованный фильтр «АГС», в Google — обновленная «Панда».

    Желаем читателю всегда оставаться вне поля действия указанных выше антиспам фильтров и добиваться успехов в поставленных задачах оптимизации исключительно белыми методами.

    Критическая ошибка в Яндекс Вебмастере

    Не так давно Яндекс поменял алгоритмы определения полезных и бесполезных сайтов. Все малополезные сайты, на его взгляд, он отмечает фатальной ошибкой.

    Сообщение об ошибки выглядит так:

    Если перейти дальше будет сообщение:

    Сайт может угрожать безопасности пользователя, или на нём были обнаружены нарушения правил поисковой системы. Наличие этой проблемы негативно сказывается на положении сайта в результатах поиска.

    При переходе подробнее можно увидеть следующее:

    Всё это звучит как приговор и радоваться не приходится:

    Нарушения и угрозы безопасности на сайте …
    Малополезный контент, спам, избыток рекламы
    Позиции сайта в результатах поиска понижены
    Сайт не соответствует основным принципам, по которым наши алгоритмы оценивают его качество: содержит бесполезный контент, чрезмерное количество рекламы, поисковый спам и т. п.

    Обычно ограничения снимаются в течение месяца после устранения нарушения.

    Что делать?

    Понять в чем же причина довольно сложно, потому что ошибка имеет общий вид и вбирает в себя всевозможные специальные и случайные нарушения.

    От Яндекса есть ссылки на инструкцию, что делать. Там общие черты и всевозможные причины:
    Малополезный контент
    Некачественные сайты

    Бессмысленно писать в Яндекс поддержку. Они отвечают, но типовыми сообщениями. А когда ты всё же добиваешься человеческого ответа, то он не обнадеживает и нередко звучит следующим образом (своими словами пересказ слов поддержки):

    Отметка «Малополезный контент, спам, избыток рекламы» является наиболее частой причиной наложенных санкций. Тем не менее, у поисковика гораздо больше критериев, по которым он судит. Значительная её часть приведена по ссылкам (даны на этой странице выше). Иногда накладываются ограничения из нескольких параметров, но чаще больше.

    Сказать, что именно является причиной санкций в вашем случае не представляется возможным, потому что сразу наложились несколько вариантов. Если вы и дальше будете развивать свой сайт, делать качественный контент для удобства посетителей, то после очередной проверки, ограничения могут быть сняты автоматически.

    Всё это хорошо, но иногда это полнейшая чушь и вот почему. Вы можете хоть тысячу полезных страниц создать для сайта, но если он имеет технические недочеты, всё это это будет насмарку. Потому что, если сайт нормальный и не создан для спама, причина может быть в технических проблемах сайта. Но ответят они вам так, что вы не поймёте. Так что лучше сосредоточится на технических моментах, которые нередко возникают по вине движка и тщательно перепроверить свой сайт.

    Убираем мобильные редиректы

    Потом смотрим файл .htaccess, там не должно быть редиректов на другие сайты.

    В том числе надо избегать любых мобильных редиректов, в том числе и на свои сайты. Яндекс может за такой редирект понизить в выдаче, влепив фатальную ошибку, приняв его за вредоносный скрипт.

    Проверьте плагины кэширования. Например, плагин кэширования на одном из моих сайтов внёс в файл .htaccess следующую мобильную переадресацию:

    Такая штука может не понравиться Яндексу. Лучше этого избегать.

    Если ошибок на сайте не видно, переадресаций и вирусов нет, следует обратить внимание на количество рекламы. Возможно Яндексу не нравится, что несколько рекламных блоков видны на одном пространстве экрана монитора. Следует уменьшить часть рекламных блоков.

    Неправильный файл robots.txt

    Это чуть ли не основная причина большинства проблем. Очень важно запретить все лишние страницы на сайте. Для этого делаем правильный robots.

    После того как всё исправили. Из того, что казалось, нужно исправить, отправляем сайт на проверку. И ждём месяц в надежде, что это было недоразумение.

    Можно даже обойтись без этой кнопки. Если конкретно те ошибки, из-за которых Яндекс поставил бан исправлены, сайт может вылезти из-под санкций чуть ли не через несколько дней после исправления.

    5 ошибок, которые помогут вам попасть под фильтры Яндекса

    Рассмотрим их подробнее, а также причины, по которым Яндекс считает эти факторы наиболее весомыми.

    У Яндекса существует понятие некачественного сайта. А все некачественные сайты ранжируются ниже в поиске или вообще исключаются из выдачи. Качество определяется возможностью сайта максимально полно и достоверно предоставить информацию на запрос пользователя, важна также ценность данной информации. А вот применение обманных методов, накрутка факторов ранжирования и прочие манипуляции, по мнению поисковика, являются признаками сайтов с сомнительным качеством. Поговорим подробнее о манипуляциях, которые грозят сайту попаданием под фильтр поисковой системы.

    1. Накрутка поведенческих факторов

    Под накрутками и эмуляцией действий пользователей Яндекс понимает любые программные или ручные действия на сайте, направленные на улучшение ПФ. Роботы или реальные люди по определенному заданию эмулируют действия реальных посетителей сайта с целью увеличить трафик из поиска, время пребывание на сайте, глубину просмотра или количество просмотренных страниц сайта.

    Особенности санкций

    Название: фильтр за накрутку ПФ.

    Чем грозит: понижением позиций в выдаче.

    Накладывается: автоматически.

    Срок между накруткой и наложением санкций:от двух месяцев и более.

    Срок выхода: от полугода.

    Как узнать, что мой сайт попал под фильтр Яндекса?

    Чаще всего наказание за накрутку ПФ довольно плачевное для сайта — трафик из поиска падает практически до нуля, нет позиций в ТОП-10.

    Как выйти из-под фильтра?

    Необходимо отказаться от искусственной накрутки ПФ, и через некоторое время позиции сайта восстановятся автоматически.

    2. Бездумная закупка ссылок

    Яндекс давно и основательно борется с накруткой ссылочного фактора. В прошлом году поисковик отключил ссылочное ранжирование для коммерческих запросов в Москве, но должного результата это не принесло, в результате ссылки по коммерческим запросам вернули. Но поисковик пошел дальше и в мае этого года ввел в действие алгоритм «Минусинск», который наказывает сайты за покупку SEO-ссылок. Первыми от «Минусинска» пострадали сайты, которые закупали ссылки долго и в промышленных масштабах. Постепенно алгоритм раскатывался, затрагивая все больше сайтов в различных тематиках. Так как алгоритм самообучаемый, его внедрение и постоянное обновление продолжается до сих пор.

    При этом нужно понимать, что Яндекс не предлагает полностью отказаться от ссылок, но настаивает на качественном и естественном ссылочном профиле компании. В случае с «Минусинском» существует вполне понятная формула: количество естественных и покупных ссылок должны соотноситься в пропорции 80% к 20%. То есть 20% ваших ссылок легко может быть куплено на SEO-бирже, если 80% ссылок вашего сайта — естественные.

    Особенности санкции

    Название: «Минусинск».

    Чем грозит: понижением позиций в выдаче на 10 пунктов и более.

    Накладывается: автоматически.

    Срок выхода: от двух месяцев.

    Как узнать, что мой сайт попал под фильтр Яндекса?

    Резкое проседание позиций сайта на 10-15 пунктов и более. Далее надо разбираться, с чем это проседание вызвано. Для этого имеет смысл проверить ссылочный профиль сайта в Ahrefs или другом сервисе. К тому же вы всегда можете спросить у Яндекса о причинах падения позиций ресурса. Чаще всего Платон отвечает шаблонными письмами без указания точных причин, но если сайт под фильтром, то вам сообщат о этом.

    Как выйти из-под фильтра?

    Достаточно снять некачественные ссылки, алгоритм автоматически проиндексирует ссылочную массу сайта и вернет ему позиции. Обычно для этого потребуется минимум два месяца.

    Чтобы предотвратить попадание сайта под «Минусинск», не стоит закупать сомнительные ссылки, также необходимо произвести очистку ссылочной массы, если вы еще не сделали. Это никак не повлияет на текущие позиции сайта в Яндексе, а, по заявлению поисковика, наоборот, может помочь подняться на несколько позиций. Но, если речь идет о большом объеме ссылок, то скорей всего это снизит ваши позиции в Google.

    Постоянно проводите мониторинг прироста и качества ссылочной массы. Данная рекомендация актуальна во все времена, но в последнее время особенно, в связи с участившимися случаями ссылочного спама. О том, как ваши конкуренты могут навредить вашему сайту и бизнесу в поиске, считайте в статье «Ссылочный спам. Как избавиться от конкурентов в поисковой выдаче».

    3. Продажа ссылок

    Еще один способ борьбы с накруткой ссылок — фильтр АГС, который борется с сайтами, продающими SEO-ссылки. Запуск алгоритма состоялся в начале сентября.

    По мнению Яндекса, сайты, продающие ссылки, участвуют в накрутке факторов ранжирования и снижают качество выдачи. Предыдущие версии АГС были направлены на борьбу с сайтами, созданными исключительно для продажи ссылок. Их отличительная особенность — малополезный контент, именно по этому признаку и вычленялись подобные ресурсы. Последняя версия АГС определяет количество и характер ссылок, проставленных на вашем сайте на другие ресурсы.

    Особенности санкции

    Название: фильтр АГС.

    Чем грозит: обнуление тИЦ сайта.

    Накладывается: автоматически.

    Срок выхода: от двух месяцев.

    Как узнать, что мой сайт попал под фильтр Яндекса?

    Обнуление тИЦ сайта — верный признак того, что сайт мог попасть под АГС. В любом случае необходимо уточнить этот вопрос в ТП Яндекса.

    Как выйти из-под фильтра?

    Как и в случае с «Минусинском» фильтр накладывается роботом, поэтому для снятия санкций достаточно удалить со страниц сайта SEO-ссылки и дождаться, когда поисковый робот отследить эти изменения.

    И конечно же, не стоит злоупотреблять ссылками на неестественными для вашей тематики ресурсы. Ставьте внешние ссылки, которые могут быть интересны или полезны вашей аудитории.

    4. Сайты-аффилиаты

    Еще один вид спама, по мнению Яндекса — создание разных сайтов под одну услугу или товар с целью занять сразу несколько позиций в выдаче по одному и тому же запросу. Такой вид монополии грозит санкциями со стороны поисковой системы, вот что говорится в вебмастере:

    «Мы стараемся не индексировать или не ранжировать высоко: группы сайтов одного владельца/компании, предоставляющие пользователю одни и те же товары или услуги, созданные с целью заполнения нескольких поз0иций в результатах поиска и сбора трафика».

    Таким образом Яндекс борется за разнообразие выдачи.

    Особенности санкции

    Название: фильтр аффилиатов.

    Чем грозит: в выдаче будет показываться только один сайт, второй будет удален из выдачи как аффилиат.

    Накладывается: автоматически.

    Срок выхода: от месяца до полугода.

    Как узнать, что мой сайт попал под фильтр Яндекса?

    Существует несколько видов фильтров аффилиатов. Сайт может быть аффилирован по части запросов или по всем запросам. В редких случаях сайт могут даже признать зеркалом. В любом случае подобные санкции очень легко отследить — падают позиции и соответственно трафик.

    Как выйти из-под фильтра?

    Если сайты, признанные аффилиатами, преследуют все же другую цель, то имеет смысл связаться с ТП Яндекс и прояснить этот вопрос, объяснив, зачем были созданы два сайта.

    Бывает другой случай, когда ваш сайт может быть аффилированным с каким-то ресурсом из ТОП выдачи. Например, сайт гостиницы продает номера напрямую и через посредников, бывают случаи, когда поисковик считает такие страницы аффилированными. В такой ситуации необходимо опять же связаться с ТП Яндекса и объяснить ситуацию.

    5. Недостаточное внимание к безопасности сайта

    Яндекс давно борется за безопасность результатов выдачи. И по недавним сообщениям в блоге для вебмастеров в скором времени опасные сайты могут начать ранжироваться ниже. Отодвинув ниже небезопасные сайты (на которые все равно никто не переходит из-за пометки Яндекса об их потенциальной угрозе), удастся сократить время на поиск информации, считают в Яндексе.

    Перейти на подобный сайт пользователь может, только прочитав предупреждение о его небезопасности и подтвердив свое действие. Большинство пользователей предпочитают избегать подобных угроз.

    Особенности санкции

    Название: понижение в выдаче опасных сайтов.

    Чем грозит: опасные страницы не будут удалены из поиска, но будут ранжироваться ниже. Сниппеты подобных страниц будут содержать предупреждение об опасности.

    Накладывается: автоматически.

    Срок выхода: сразу после того, как все угрозы будут удалены из кода сайта.

    Как узнать, что мой сайт попал под фильтр Яндекса?

    Если ваш сайт будет признан небезопасным, Яндекс уведомит вас об этом в Вебмастере.

    Какие страницы сайта считаются небезопасными, и как происходит заражение сайта, читайте в вебмастере.

    Как выйти из-под фильтра?

    Найти и удалить вредоносный код, после чего сообщить в ТП Яндекса и запросить перепроверку сайта. Если угрозы больше не будут обнаружены, сайт будет выводиться в поиске уже без пометок и предупреждения об опасности.

    И еще несколько признаков некачественных сайтов

    Приметами некачественного сайта также является:

    • Клоакинг,дорвей, скрытый текст. Методы черного SEO приводят к полному исключению сайта из выдачи Яндекса.
    • Неоригинальный, бесполезный контент. Грозит понижение в выдаче или полным исключением из поиска страниц.
    • Переоптимизация (тексты сайта заспамленые ключевыми словами). Как и с в случае с бесполезным контентом, приводит к понижению позиций или исключению из выдачи.
    • Чрезмерное использование рекламы или шокирующая реклама. Использование раздражающей и навязчивой рекламы, которая мешает пользователю взаимодействовать с сайтом, ведет к понижению позиций сайта.

    Что нужно делать, чтобы не попасть под санкции поисковика?

    • Размещайте на сайте только уникальный контент, который поможет ответить на вопросы ваших посетителей. Избегайте агрессивной рекламы.
    • В первую очередь думайте о своих посетителях, а не о поисковых системах. Если сайт нравится вашим пользователям, то поведенческие факторы расскажут об этом поиску.
    • Ссылки. Важная часть интернета в целом и поиска в частности. Поэтому к ним стоит относиться с особым вниманием, используйте внутреннюю перелинковку, чтобы облегчить навигацию поиска, ссылайтесь на внешние источники, только если они действительно несут пользу вашим посетителям, а не потому что вас попросили или заплатили за это.
    • Дизайн играет первостепенную роль в восприятии информации, размещенной на сайте, не забывайте об этом. Сложный дизайн и навигация скорее вредят в достижении этой цели.
    • Не пытайтесь привлечь на сайт пользователей по запросам, на которые у вас достойных ответов. Будьте честны со своей аудиторией.

    Еще больше материалов по теме в блоге iSEO.

    Топ-пост этого месяца:  Площадки РСЯ список запрещённых, настройка, таргетинг на сайты
    Добавить комментарий