Пометка Часто бываете в поиске Яндекса — что это и как работает

Содержание материала:

​Популярный FAQ по поисковым запросам от Яндекса

Итак, озвученный Платоном FAQ выглядит следующим образом.

Почему в разделе «Поисковые запросы» мой сайт по одному ключу занимает некую позицию в выдаче, однако в реальности его место совсем другое? Это какой-то внутренний сбой Яндекс.Вебмастера?

Нет, такое несоответствие является вполне нормальным. В целом, сведения, которые предоставляет этот раздел, на порядок точнее тех, которые вы можете собрать самостоятельно. Это объясняется тем, что пользователи из разных регионов и с разных мобильных устройств в одно и то же время могут видеть ваш сайт на разных позициях в нашем поиске. В этом разделе при составлении общей картины по конкретному поисковому запросу мы всегда это учитываем. Вы, скорее всего, нет.

Кроме того, не стоит забывать, что статистика по поисковым запросам в Яндекс.Вебмастере отображается за период времени, который уже завершился. Обычно такая задержка измеряется несколькими днями. Следовательно, прямо сейчас вы можете наблюдать свой сайт в поиске Яндекса на определенной позиции по такому-то запросу, но в Вебмастере это место другое. Такое, каким оно было пару дней назад.

Конечно, бывают ситуации, когда позиции сайта по заданному ключу в Яндекс.Вебмастере и результатах поиска сильно отличаются друг от друга на протяжении длительного времени. В таком случае мы рекомендуем обращаться в нашу Службу поддержки с детальным описанием проблемы.

В чем причина того, что данные о переходах на сайт в Яндекс.Метрике и Яндекс.Вебмастере не совпадают?

Чаще всего это происходит потому, что источник и природа анализируемых Метрикой сведений отличаются от того, что оценивает Вебмастер. Впрочем, могут быть и другие варианты. Если в Яндекс.Метрике показатели переходов ниже, то вы должны убедиться в правильности установки ее счетчика. Код должен присутствовать на всех страницах сайта. Может быть и такое, что у ресурса имеются проблемы с доступностью – человек кликает по ссылке в поиске Яндекса, но по какой-то причине переход на сайт не происходит.

Если самостоятельно определить источник проблемы вам не удалось, расхождения в показателях Метрики и Вебмастера сохраняются, пишите в Службу поддержки. Не исключено, что это какая-то ошибка в расчетах на нашей стороне. В таком случае мы во всем разберемся, исправим баг и пересчитаем статистику для сайта в указанных сервисах.

Как вы определяете среднюю позицию сайта? Почему позиция не целое число, а десятичная дробь?

Средняя позиция сайта в нашем поиске, отображаемая в Яндекс.Вебмастере, зависит от его показов в выдаче. Предположим, что за одни сутки по заданному поисковому запросу сайт демонстрировался 33 раза на 4-ой позиции и 41 раз на 6-ой. В таком случае его средняя позиция по этому запросу будет равна:

Почему у сайта очень низкий CTR в целом и по отдельным поисковым запросам?

Причин тут может быть несколько. Во-первых, у вашего проекта могут быть не самые качественные сниппеты, в то время как у конкурентов они гораздо привлекательнее. Более того, ваши соперники по поиску часто практикуют разного рода акции, благодаря которым перехватывают трафик, который мог бы достаться вам. Чтобы убедиться в этом, предлагаем выбрать поисковые запросы с самым низким CTR и посмотреть глазами рядового пользователя, как именно выглядит выдача Яндекса по таким ключам. Скорее всего, даже невооруженным глазом вы сможете обнаружить причину такого положения вещей.

Во-вторых, имеет значение и уже упомянутая средняя позиция сайта в нашем поиске. Очевидно, что проект, который занимает 10-ое место в самом низу первой страницы выдачи, будет не таким кликабельным, если сравнивать с конкурентом на 4-ой позиции ТОПа.

Резкое падение CTR может быть спровоцировано и тем, что в поиске по заданному запросу отображается не одна, а сразу несколько страниц ресурса. В таком случае количество показов удваивается (фиксируется каждая ссылка), а число кликов остается на прежнем уровне, так как пользователь кликает чаще всего по одному линку.

Почему в разделе «Поисковые запросы» отображаются ключевые слова и фразы, которые к моему сайту отношения не имеют?

Помните, что мы никогда не придумываем поисковые запросы сами. Если в Яндекс.Вебмастере зафиксированы те или иные запросы, то в определенный период времени ваш сайт в самом деле можно было найти (или он до сих пор находится) по ним в нашем поиске. Это аксиома!

Почему так? В большинстве случаев речь идет о некачественном контенте на страницах ресурса, который не соответствует тематике сайта. Иногда такой контент появляется по вине вашего хостинг-провайдера или в результате взлома.

Что посоветовать? Проверить сайт на предмет уязвимостей, обновить его движок (CMS) и пароли к проекту.

Известный факт, что в разные временные отрезки (сезоны) интерес к тематике сайта может быть разным. Большим или меньшим, но разным. Скажем, недавний Чемпионат мира по футболу в России значительно активизировал интерес пользователей Яндекса к спорту №1. Сейчас, после окончания ЧМ-2020, заинтересованность людей в футболе заметно снизилась. Конечно, мировое первенство проводится не каждый год, но ход мысли должен быть понятен.

Поэтому если речь идет о таком сезонном спаде показов, то это можно легко выяснить. Достаточно сравнить нынешнюю динамику показов и переходов из поиска с прошлогодней, с той, которая была в прошлом месяце или на прошлой неделе. Скорее всего, сравнительный анализ покажет, что нечто подобное уже происходило с вашим сайтом в прошлом и имеет определенную тенденцию к повторению. Следовательно, волноваться не нужно. Падение интереса к сайту имеет естественные причины.

К слову, чтобы в этом убедиться, можно также проанализировать то, как изменился трафик на сайт и из других поисковых систем (не только Яндекса). Или как обстоят дела у конкурентов. Если везде картина примерно одинаковая, то паниковать не стоит. Ситуация объективна и не зависит от вас!

Однако если резкая просадка трафика не находит логического объяснения, тогда есть повод проверить в Яндекс.Вебмастере раздел «Безопасность и нарушения». Вполне вероятно, что сайт нарушает какие-то правила нашего поиска и за это расплачивается своими позициями в выдаче.

Есть еще один, последний способ найти источник проблемы – начать постраничную проверку сайта. Находите с помощью той же Яндекс.Метрики (отчет «Страницы входа») страницы, которые лишились трафика.

Затем проверяете, присутствуют ли эти страницы в выдаче Яндекса. Если вдруг их там нет, то попытайтесь выяснить – почему. Для этого используйте такие инструменты анализа, как «Проверить ответ сервера» или «Проверить статус URL».

Если и это не дало результатов, тогда еще раз изучите названия и описания страниц. Постарайтесь объективно ответить самому себе – насколько они соответствуют контенту на странице и ожиданиям рядовых посетителей. Пройдитесь внимательно по проблемным страничкам. Быть может, причина всех бед в их устаревшей пользе для целевой аудитории. Да, вчера они еще были пригодны и высоко ранжировались в Яндексе, но сегодня, ввиду неустанного развития конкурентов, такие страницы стали попросту неконкурентоспособными.

Это были лишь некоторые ответы на часто задаваемые вопросы о разделе «Поисковые запросы» в Яндекс.Вебмастере. Хотите узнать больше? Пишите Платону…

Как убрать сайты которые я часто посещаю из вводной строки в яндексе?

Для того, чтобы изменить вывод своих часто посещаемых сайтов, необходимо зайти в раздел настроек вывода поисковых подсказок в Яндексе и убрать отметки в пунктах «Мои запросы в поисковых подсказках» и «Любимые сайты». Изменения сохранить.

Если убрать отметку с первого пункта «Поисковые подсказки», прекратится вывод и популярных запросов.

Можно либо через личный аккаунт Яндекса это сделать, либо при помощи самого браузера. К примеру, у меня в Хроме нужно зайти в настройки (три вертикальные точки в правом верхнем углу), нажать история. Потом сверху клацнуть «Очистить историю», выбрать период и отметить галочкой «Данные автозаполнения», а остальные галочки убрать (чтобы лишнего не удалить). И все, подсказки должны пропасть.

А вообще лучше через Инкогнито сидите (режим браузера), если что-то скрываете.

10 основных причин, по которым страница сайта может не находиться в индексе поисковых систем Яндекс или Google

Причина номер 1. Новая страница или новый сайт

Первая причина, это то, что поисковые роботы еще просто не нашли новую страницу вашего сайта. В зависимости от того, какой ваш сайт, переобход страниц может занимать от нескольких минут до нескольких недель.

Чтобы узнать, находится ли в индексе страница Вам необходимо воспользоваться сервисами вебмастера Яндекс или Google Search Console.

В Яндекс.Вебмастере это раздел «Индексирование» — «Проверить статус URL». Если робот обошел и проиндексировал страницу, вы увидите уведомление «Страница обходится роботом и находится в поиске».

Если робот о странице еще не знает, вы увидите сообщение «Страница неизвестна роботу».

В новой версии Google Search Console вам нужен инструмент «Проверка URL». Если робот обошел и проиндексировал страницу, вы увидите уведомление «URL есть в индексе Google».

Если робот на странице еще не был, вы увидите сообщение «URL нет в индексе Google».

Причина номер 2. Страница или сайт закрыты от индексации в файле robots.txt

Существует специальный файл robots.txt, который позволяет указать роботам на то, какие страницы сайта должны быть в индексе поисковых систем, а какие страницы не должны быть включены.

Соответственно, если в файле прописаны запрещающие правила, в индексе поисковых систем данную страницу вы не найдете.

Как проверить, закрыта ли страница в robots.txt?

В Яндекс.Вебмастере: заходим в «Инструменты — Анализ файла robots.txt». В окно «Разрешены ли URL» вносим адреса страниц, которые мы хотим проверить. После того, как мы нажмем на кнопку «Проверить», внизу появится список введенных адресов и их статус: разрешены они для индексации или нет. Если нет, будет указано, какое из правил запрещает обход для робота.

В Google похожий инструмент находится на вкладке «Сканирование — Инструмент проверки файла robots.txt».

Важно! На данный момент эта вкладка находится в старой версии вебмастера!

Причина номер 3. Указан запрет в User-Agent

У поисковых систем есть свои требования к тому, как должен строиться файл robots.txt. И начинается он с приветствия. Приветствие может быть обращено к роботу яндекс, либо гугл, либо к обеим поисковым системам.

Часто для Яндекс и Google делают отдельные секции в файле robots.txt. А потом забывают вносить правки в эти секции. Из-за этого роботы потом некорректно начинают индексировать сайт.

Проверяем наличие проблемы также, как и в предыдущем случае. Главное — это делать в вебмастере Яндекс, и в вебмастере Google.

Причина номер 4. Запрет на индексацию страниц указан в мета-теге robots.

Суть этого мета-тега такая же, как и у файла robots.txt, только если страница закрыта в robots.txt она все равно может быть проиндексирована поисковыми системами. Но если на странице используется noindex или none, страница не будет добавлена в индекс.

1. Проверить использование данного мета-тега на странице можно в коде (сочетание клавиш Ctrl+U)

2. С помощью дополнения для браузера, например seo meta

3. С помощью вебмастеров.

Причина номер 5. Некорректно настроенный атрибут rel=canonical.

Каноникал — это еще один атрибут, помогающий управлять индексацией страниц.

Если rel каноникал настроен на другую страницу, то вы говорите поисковому роботу о том, что она схожа с другой станицей и первую страницу не нужно добавлять в индекс поисковых систем.

Проверить использование данного атрибута можно также в исходном коде, с помощью дополнения для браузера — rds бар или seo meta.

Также это можно увидеть в вебмастере Яндекс («Страницы в поиске»- «Исключенные страницы». Проверять необходимо статус «неканонические»).

Причина номер 6. Проблемы с ответом сервера

Для того, чтобы страница индексировалась, ее код ответа сервера должен быть 200 ОК. Если страница отдает ответ сервера 404 или 301, в индекс поисковых систем данная страница не попадет.

Проверять код ответа лучше всего с помощью вебмастеров, они показывают наиболее точные данные. А вот визуальной проверкой лучше не ограничиваться, так как бывают случаи, когда страницы выглядят корректно, но код ответа сервера не 200.

Причина номер 7. Проблемы с хостингом или сервером

Представьте, вы приходите в магазин, а он не работает. Потом снова приходите в магазин, но он все равно не работает. Какова вероятность того, что вы вернетесь туда? Вероятнее всего очень маленькая.

Тоже самое происходит и с поисковыми системами. Если он приходит на ваш сайт, а он не работает, то робот просто исключает страницы из индекса и не показывает их пользователям.

Правильно, зачем пользователей приводить на неработающий сайт.

Для того, чтобы отследить есть ли проблема, необходимо в вебмастерах проверять статус страниц. Если встречаются ошибки сервера 5хх (500, 503), а также если вам приходят уведомления из Яндекс.Метрики о том, что сайт не работает, необходимо решать данную проблему.

Причина номер 8. Проблемы со скоростью загрузки страниц

Скорость загрузки — важный показатель качества современного сайта. Если ваши страницы долго долго загружаются, роботы поисковых систем исключать такие страницы из индекса.

Кроме того, скорость загрузки страниц — является фактором ранжирования в поисковых системах. Поэтому, если у вас с этим есть проблемы, срочно это исправляйте!

Как проверить? Начните с инструмента PageSpeed Insights от Google. Дополнительно можете использовать сервисы Google Аналитика и Яндекс.Метрика.

Совет! Важно проверять скорость загрузки для нескольких типов страниц и не останавливаться выполнив только одну проверку, т.е. выполнять данные работы периодически.

Топ-пост этого месяца:  Как редактировать сайт на wordpress, а также его код

Причина номер 9. Проблема с уникальностью и полезностью контента

Поисковики уделяют большое внимание качеству контента, поэтому, если на странице расположен не полезный контент, либо же дублирующийся с другими страницами, такие страницы не добавляются в индекс поисковых систем.

Как проверить, есть ли на сайте такие страницы — нужно зайти в вебмастер.

В Яндексе — это отчет «Страницы в поиске» — «Исключенные страницы». Проверять нужно статусы «Дубль» и «Недостаточно качественная».

В Google Search Console — это отчет «Покрытие» — «Страница является копией. Канонический вариант не выбран пользователем».

Причина номер 10. Проблемы с AJAX

Если ваш сайт выполнен на технологии AJAX очень важно правильно выполнить требования поисковых систем, для того чтобы поисковые роботы смогли проиндексировать страницы вашего сайта.

Таким образом для каждой отдельной страницы должна быть своя HTML-версия.

И напоследок, дадим вам несколько советов, как ускорить индексацию:

8 способов занять первую страницу поисковой выдачи

Без аффилиатов и серого SEO. Полезные советы от 1PS.RU.

Вы когда-нибудь думали, как занять весь топ поисковой выдачи? Прелесть в том, что для этого не нужно создавать сайты-двойники и бояться аффилиат-фильтров. Есть и другие методы, которые не вредят сайту, но помогают получить новые источники трафика. Давайте разбираться.

1. Контекстная реклама

Способ очевидный, но это не отменяет факта, что вы гарантированно займёте одно из мест в выдаче. Рассмотрим на примере Яндекса. Рекламные объявления показывают перед результатами поиска (спецразмещение) и в конце страницы (гарантированные показы).

Место размещения объявления определяется через аукцион Яндекс.Директа. Если хотите, чтобы ваша реклама показывалась на первом месте, назначенная ставка за клик должна соответствовать ставке за одно спецразмещение.

Главный нюанс при запуске контекста — правильно подобрать семантическое ядро. Определитесь, по каким запросам будете показывать свои объявления. Рекомендуем не подбирать высокочастотные запросы, так как это грозит высокой стоимостью клика и большому проценту отказа. Лучше использовать средне- и низкочастотные запросы. (Впрочем, универсальных стратегий не существует.)

ТОП-100 лучших SEO-агентств России 2020

Кто лучше всех в России умеет продвигать сайты в поисковых системах – и к кому лучше обратиться за продвижением сайта своей компании?

Ответ – в свежем рейтинге SEO-компаний за 2020 год по версии RUWARD.

Существует теория, что контекст влияет на ранжирование сайта в поисковой выдаче, но поисковики это отрицают. Однако реклама действительно влияет на поведенческие факторы сайта, а уже они — на ранжирование.

2. Яндекс.Дзен

Лента Яндекс.Дзена отображается на стартовой странице поиска Яндекса. Для авторов это дополнительная возможность получить трафик на сайт. Инструмент работает как на десктопе, так и на мобильных платформах. Выглядит так:

Добавить статью в Дзен можно двумя способами:

  • Создать и настроить специальный RSS-фид. В этом случае новые публикации будут автоматически попадать в ленту. RSS-поток должен быть открыт для робота Яндекса. Также обязательно укажите тематику, это позволит поисковику найти больше целевых читателей.
  • Завести отдельный канал в Яндекс.Дзене. Если RSS-лента просто транслирует статьи с сайта, то у канала больше возможностей для оформления. Кроме того, вы получаете доступ к простой статистике: просмотры, дочитывания и среднее время нахождения на странице. Если набрать 7000 дочитываний со средним временем просмотра 40 секунд, можно монетизировать канал и разместить рекламный блок внутри статьи.

Совмещайте и RSS-ленту, и отдельный канал Яндекс.Дзен. Тогда вы будете получать трафик на свой сайт, плюс у вас появится возможность монетизировать канал.

3. Социальные сети

Порой соцсети компании занимают позиции выше, чем сам сайт. Заниматься продвижением в соцсетях не просто важно, а необходимо.

При этом далеко не всем компаниям нужно открывать своё представительство в социальных сетях — например, мы бы дважды подумали, заводя страницу для b2b-проекта. В этом сегменте сложно (но всё-таки возможно) привлекать целевую аудиторию. К тому же, чтобы соцсети работали на 100%, необходимо писать интересный и разнообразный контент.

Что делать до запуска своего сообщества:

  • Определиться с целью — зачем вам нужно своё представительство в соцсетях? Аргумент «у конкурентов есть, а у меня нет» — это не цель ;–)
  • Нарисовать портрет целевой аудитории. Женщины или мужчины? Чем интересуются? Где живут? Чем чётче вы представляете своего потенциального клиента, тем легче вам будет работать со своим сообществом.
  • Проанализировать соцсети конкурентов. Обратите внимание на активность в группе (лайки, репосты, комментарии). Какой контент используют: рекламные посты, полезная информация, розыгрыши, обзоры?
  • Продумать УТП. Что вас отличает от сотни похожих компаний? Чем вы лучше конкурентов? Какими преимуществами обладает ваша компания?

4. Справочники организаций

Не повредит добавить информацию о компании в справочники организаций. Во-первых, это один из способов получить естественную ссылку на сайт, а во-вторых, в результатах поиска нередко встречаются карточки компаний, которые идут наравне с сайтом компании.

В карточке компании можно добавить описание (чем занимается организация), ссылку на сайт, телефон, соцсети и отзывы клиентов. Наиболее популярными справочниками считаются 2GIS, Жёлтые страницы, OrgPage.ru. Как правило, новые карточки модерируют в течение одного-двух месяцев.

5. Яндекс.Карты и Google Maps

Информация с картами показывается на первой странице поисковой выдачи. Например, так Яндекс обрабатывает поисковый запрос «магазин косметики»:

В Google такая информация находится под рекламным блоком перед результатами поиска:

Чтобы добавить информацию в карты, нужно заполнить заявку в Яндекс.Справочнике и Google Мой бизнес. Ещё одно преимущество — с мобильных устройств пользователь быстрее найдёт информацию о вашей компании, если находится недалеко от вашего адреса.

6. Товарные агрегаторы

Популярные агрегаторы: Яндекс.Маркет, Google Shopping, Товары@Mail.Ru, Price.ru. Блок с товарами из Яндекс.Маркета показывается либо справа от результатов поиска, либо после рекламы Яндекс.Директа.

Кроме того, Маркет включает два способа оплаты:

  • Оплата за переходы на сайт магазина.
  • Оплата за заказ. Магазин, в котором покупатель оформил заказ через агрегатор, будет платить процент Яндекс.Маркету.

Ещё один важный нюанс: жёсткие правила модерации. Чтобы начать работать с агрегаторами, нужно корректно заполнить фид с товарами. Все требования к фидам можно найти на сайтах торговых площадок. И конечно, не забывайте отслеживать эффективность: переходы, конверсию, стоимость лида, процент отказов.

7. Сайты отзывов

Не все пользователи верят компаниям, поэтому ищут мнения других клиентов, которые могут поделиться своим опытом. Работа с репутацией хороша ещё и потому, что в результатах поиска часто встречаются отзывы о товарах или услугах со ссылкой на сайт продавца.

Если не знаете, что о вас пишут и пишут ли вообще, проведите SERM-аудит. Это можно сделать своими руками либо с помощью специальных сервисов мониторинга упоминаний. Так вы поймёте, в каком направлении развиваться: формировать репутацию с нуля, поддерживать текущую ситуацию или плотно заняться усилением бренда.

8. Файлы .doc и .pdf

По некоторым запросам поисковые системы показывают документы, открытые для скачивания. У таких файлов есть пометка, указывающая на формат документа. Например:

Чтобы такие документы попадали в результаты выдачи, нужно их оптимизировать.

  1. Ставьте на сайте прямые ссылки на документ. Для роботов это будет сигналом, что файл можно проиндексировать.
  2. Внутри документа ставьте ссылку на свой сайт — так пользователи смогут перейти на источник. Конечно же, уделите внимание заголовкам и названию документа — используйте ключевые слова.

Это восемь простых способов помогут попасть, а в некоторых случаях — и заполнить первую страницу поисковой выдачи. Не забывайте уделять внимание внутренней и внешней оптимизации сайта, юзабилити и текстам. Тогда ваш ресурс понравится не только поисковым роботам, но и пользователям.

Какие бывают поисковые системы и как они работают?

Интернет необходим многим пользователям для того, чтобы получать ответы на запросы (вопросы), которые они вводят.

Если бы не было поисковых систем, пользователям пришлось бы самостоятельно искать нужные сайты, запоминать их, записывать. Во многих случаях найти «вручную» что-то подходящее было бы весьма сложно, а часто и просто невозможно.

За нас всю эту рутинную работу по поиску, хранению и сортировке информации на сайтах делают поисковики.

Начнем с известных поисковиков Рунета.

Поисковые системы в Интернете на русском

1) Начнем с отечественной поисковой системы. Яндекс работает не только в России, но также работает в Белоруссии и Казахстане, в Украине, в Турции. Также есть Яндекс на английском языке.

2) Поисковик Google пришел к нам из Америки, имеет русскоязычную локализацию:

3)Отечественный поисковик Майл ру, который одновременно представляет социальную сеть ВКонтакте, Одноклассники, также Мой мир, известные Ответы Mail.ru и другие проекты.

4) Интеллектуальная поисковая система

13,0,1,0,0

Nigma (Нигма) http://www.nigma.ru/

С 19 сентября 2020 года “интеллектуалка” nigma не работает. Она перестала для её создателей представлять финансовый интерес, они переключились на другой поисковик под названием CocCoc.

5) Известная компания Ростелеком создала поисковую систему Спутник.

Есть поисковик Спутник, разработанный специально для детей, про который я писала ТУТ.

6) Рамблер был одним из первых отечественных поисковиков:

В мире есть другие известные поисковики:

подробнее о них ЗДЕСЬ.

Попробуем разобраться, как же работает поисковая система, а именно, как происходит индексация сайтов, анализ результатов индексации и формирование поисковой выдачи. Принципы работы поисковых систем примерно одинаковые: поиск информации в Интернете, ее хранение и сортировка для выдачи в ответ на запросы пользователей. А вот алгоритмы, по которым работают поисковики, могут сильно отличаться. Эти алгоритмы держатся в тайне и запрещено ее разглашение.

Введя один и тот же запрос в поисковые строки разных поисковиков, можно получить разные ответы. Причина в том, что все поисковики используют собственные алгоритмы.

Цель поисковиков

В первую очередь нужно знать о том, что поисковики – это коммерческие организации. Их цель – получение прибыли. Прибыль можно получать с контекстной рекламы, других видов рекламы, с продвижения нужных сайтов на верхние строчки выдачи. В общем, способов много.

Прибыль поисковика зависит от того, какой размер аудитории у него, то есть, сколько человек пользуется данной поисковой системой. Чем больше аудитория, тем большему числу людей будет показываться реклама. Соответственно, стоить эта реклама будет больше. Увеличить аудиторию поисковики могут за счет собственной рекламы, а также привлекая пользователей за счет улучшения качества своих сервисов, алгоритма и удобства поиска.

26,1,0,0,0

Самое главное и сложное здесь – это разработка полноценного функционирующего алгоритма поиска, который бы предоставлял релевантные результаты на большинство пользовательских запросов.

Работа поисковика и действия вебмастеров

Каждый поисковик обладает своим собственным алгоритмом, который должен учитывать огромное количество разных факторов при анализе информации и составлении выдачи в ответ на запрос пользователя:

  • возраст того или иного сайта,
  • характеристики домена сайта,
  • качество контента на сайте и его виды,
  • особенности навигации и структуры сайта,
  • юзабилити (удобство для пользователей),
  • поведенческие факторы (поисковик может определить, нашел ли пользователь то, что он искал на сайте или пользователь вернулся снова в поисковик и там опять ищет ответ на тот же запрос)
  • и т.д.

Все это нужно именно для того, чтобы выдача по запросу пользователя была максимально релевантной, удовлетворяющей запросы пользователя. При этом алгоритмы поисковиков постоянно меняются, дорабатываются. Как говорится, нет предела совершенству.

С другой стороны, вебмастера и оптимизаторы постоянно изобретают новые способы продвижения своих сайтов, которые далеко не всегда являются честными. Задача разработчиков алгоритма поисковых машин – вносить в него изменения, которые бы не позволяли «плохим» сайтам нечестных оптимизаторов оказываться в ТОПе.

Как работает поисковая система?

Теперь о том, как происходит непосредственная работа поисковой системы. Она состоит как минимум из трех этапов:

  • сканирование,
  • индексирование,
  • ранжирование.

Число сайтов в интернете достигает просто астрономической величины. И каждый сайт – это информация, информационный контент, который создается для читателей (живых людей).

Сканирование

Это блуждание поисковика по Интернету для сбора новой информации, для анализа ссылок и поиска нового контента, который можно использовать для выдачи пользователю в ответ на его запросы. Для сканирования у поисковиков есть специальные роботы, которых называют поисковыми роботами или пауками.

Поисковые роботы – это программы, которые в автоматическом режиме посещают сайты и собирают с них информацию. Сканирование может быть первичным (робот заходит на новый сайт в первый раз). После первичного сбора информации с сайта и занесения его в базу данных поисковика, робот начинает с определенной регулярностью заходить на его страницы. Если произошли какие-то изменения (добавился новый контент, удалился старый), то все эти изменения будут поисковиком зафиксированы.

Главная задача поискового паука – найти новую информацию и отдать ее поисковику на следующий этап обработки, то есть, на индексирование.

Индексирование

Поисковик может искать информацию лишь среди тех сайтов, которые уже занесены в его базу данных (проиндексированы им). Если сканирование – это процесс поиска и сбора информации, которая имеется на том или ином сайте, то индексация – процесс занесения этой информации в базу данных поисковика. На этом этапе поисковик автоматически принимает решение, стоит ли заносить ту или иную информацию в свою базу данных и куда ее заносить, в какой раздел базы данных. Например, Google индексирует практически всю информацию, найденную его роботами в Интернете, а Яндекс более привередлив и индексирует далеко не все.

Для новых сайтов этап индексирования может быть долгим, поэтому посетителей из поисковых систем новые сайты могут ждать долго. А новая информация, которая появляется на старых, раскрученных сайтах, может индексироваться почти мгновенно и практически сразу попадать в «индекс», то есть, в базу данных поисковиков.

Ранжирование

Ранжирование – это выстраивание информации, которая была ранее проиндексирована и занесена в базу того или иного поисковика, по рангу, то есть, какую информацию поисковик будет показывать своим пользователям в первую очередь, а какую информацию помещать «рангом» ниже. Ранжирование можно отнести к этапу обслуживания поисковиком своего клиента – пользователя.

На серверах поисковой системы происходит обработка полученной информации и формирование выдачи по огромному спектру всевозможных запросов. Здесь уже вступают в работу алгоритмы поисковика. Все занесенные в базу сайты классифицируются по тематикам, тематики делятся на группы запросов. По каждой из групп запросов может составляться предварительная выдача, которая впоследствии будет корректироваться.

39,0,0,1,0 Рис. 1 Упреждающий поиск – выдаются подсказки при вводе первых букв в строку поиска

Предварительная выдача называется еще «упреждающим поиском» – это когда пользователь только начинает вводить свой запрос, а ему уже предлагаются различные варианты ответов.

Топ-пост этого месяца:  Как производится отладка JavaScript с помощью debugger в Firefox описание приложения и инструкция

В каждой поисковой системе есть модераторы – люди, отвечающие за оценку сайтов и результаты выдачи по определенным группам запросов. Модераторы нужны для того, что контролировать работу поисковика, а также замещать алгоритм там, где он работает недостаточно хорошо (корректировать его работу). Модераторы могут вручную менять позиции тех или иных сайтов, если видят, что алгоритм поисковика в каких-то случаях сработал некорректно.

Голосование

Спасибо за Ваш голос!

P.S. К статье отлично подходит:

51,0,0,0,0

52,0,0,0,0 53,0,0,0,1

Алгоритмы и технологии Яндекса. Как работает поиск?

В прошлой статье мы рассмотрели наиболее интересные технологии Яндекса, применяемые для обеспечения качественного поиска в интернете. Теперь разберем более подробно, как устроена поисковая машина Яндекса. Что же происходит после того, как пользователь вводит запрос в строку поиска?

MatrixNet

Технология поиска Яндекс устроена сложно. Поисковая выдача формируется на основе формулы ранжирования, построенной на нескольких сотнях факторов, каждый из которых может включаться с индивидуальным коэффициентом, а также в различных комбинациях с прочими факторами.

Формула ранжирования — это функция, построенная на множестве факторов, при помощи которых определяется релевантность сайта поисковому запросу и его очередность в выдаче

Для обеспечения качественного поиска факторы и коэффициенты в формуле ранжирования должны регулярно обновляться. Построением такой формулы в Яндексе занимается MatrixNet (Матрикснет) — метод машинного обучения, введенный Яндексом в 2009 году с целью сделать поиск более точным.

«Матрикснет» — метод машинного обучения, с помощью которого подбирается формула ранжирования Яндекса. Входными данными являются факторы и обучающие данные, подготовленные асессорами (экспертными сотрудниками Яндекса).

Основная его особенность заключается в том, что он устойчив к переобучению и позволяет построить сложную формулу ранжирования с десятками тысяч коэффициентов, которая учитывает множество различных факторов и их комбинаций без увеличения количества асессорских оценок и опасности найти несуществующие закономерности.

Архитектура поиска

Ежедневно пользователи посылают Яндексу десятки миллионов запросов. Для формирования ответа под какой-нибудь один запрос поисковой машине необходимо проверить миллионы документов, определить их релевантность и упорядочить при помощи формулы ранжирования так, чтобы наиболее подходящие страницы сайтов оказались вверху выдачи. Для ускорения этого процесса Яндекс использует заранее подготовленные данные — индекс.

Индекс — база поисковой системы, содержащая сведения о запросах и их позициях на страницах сайтов в сети. Индекс формируется поисковым роботом, который обходит сайты и собирает информацию с заданной периодичностью.

Размер индекса в поиске огромен, чтобы быстро обработать такой объем данных используются тысячи серверов, объединенные в кластеры.

После того, как пользователь вводит запрос в строку поиска, он анализируется компьютерной системой «Метапоиск» на предмет региональной привязки, класса запроса и т.д. Там же запрос проходит лингвистическую обработку. Далее «Метапоиск» проверяет кэш на наличие поискового ответа по данному запросу. По часто задаваемым запросам результаты поиска хранятся в памяти поисковика в течение какого-то времени, а не формируются каждый раз заново.

«Метапоиск» — это программа, которая принимает и разбирает поисковые запросы, передает их соответствующим «Базовым поискам», обеспечивает агрегацию и ранжирование найденных документов, а также производит кеширование части ответов, которые впоследствии возвращаются пользователям без обращения к «Базовому поиску».

Если же ответ не найден, «Метапоиск» передает запрос другой компьютерной системе – «Базовому поиску». Там же хранится поисковая база Яндекса (индекс). Так как это огромный объем данных, индекс разбивается на части, которые хранятся на разных серверах. Такой подход позволяет производить поиск одновременно по нескольким частям базы данных, что заметно ускоряет процесс. Каждый сервер имеет несколько копий, это дает возможность распределять нагрузку и не терять данные. При передаче запроса «Метапоиск» выбирает наименее загруженные сервера «Базового поиска».

«Базовый поиск» обеспечивает поиск по всей части индекса (базе поисковой системы), содержащей сведения о запросах и их позициях на страницах сайтов в сети.

Каждый сервер базового поиска отдает список документов, содержащих поисковый запрос, обратно в «Метапоиск», где они ранжируются по сформированной «Матрикснетом» формуле. Результаты такой работы мы видим на странице выдачи.

Использование индекса в качестве источника данных, многостадийный подход к формированию ответа и дублирование данных позволяют Яндексу обеспечивать поиск за доли секунды.

Оценка качества поиска

Помимо скорости поиска не менее важно и его качество. Для этого у Яндекса существует система оценки качества поиска, которая также помогает улучшить это качество.

Релевантность – свойство документа, определяющее степень его соответствия поисковому запросу. Вычисляется на основе формулы ранжирования.

Релевантность документа поисковому запросу вычисляется на основе формулы ранжирования – функции от множества факторов. Сейчас в Яндексе более 800 различных факторов, таких как возраст сайта, региональная привязка, взаимодействие пользователей с сайтом (поведенческий фактор), уникальность контента и т.д. В случае с персонализированным поиском релевантность документа зависит непосредственно от предпочтений пользователя, отправившего запрос.

Формула ранжирования постоянно обновляется, так как меняются потребности пользователей и индекс поисковика. Для ее обновления применяется методы машинного обучения. На основе экспертных данных выявляются зависимости между характеристиками документов и порядком их включения в выдачу, которые вносятся в формулу для ее корректировки.

Оценка качества поиска — удовлетворенность пользователей результатами поиска и порядком их следования.

Экспертными данными для машинного обучения являются оценки асессоров, которые также применяются для оценки качества поиска.

Асессоры — специалисты, оценивающие по ряду критериев релевантность представленного в выдаче документа поисковому запросу.

Асессоры оценивают поисковые результаты в выдаче по ряду критериев, которые позволяют определить, присутствует ли на сайте полный ответ на запрос, является ли сайт брендовым, не переспамлен ли текстовый контент и т.д. В основном асессоры работают с наиболее популярными поисковыми запросами (порядка 150 тыс.), при этом оцениваются первые 30 позиций выдачи. Это наиболее авторитетная оценка, так как ее проводит человек, а не машина, т.е. сайт получает оценку с точки зрения пользователя.

Актуализация и улучшение правил ранжирования в комплексе с оценкой качества поиска помогают Яндексу формировать выдачу, соответствующую ожиданиям пользователей.

Почему сайт просел в поиске: 9 фатальных ошибок, способных угробить любой сайт

Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

    Фильтры и санкции поисковых систем

Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

Контент

Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

Проверяйте уникальность текстов перед размещением на text.ru.

Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

Теги Title и Description, заголовки H1-H3

Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

Либо переспам ключами в заголовках:

Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

Переезд на https

C января 2020 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

Файл robots.txt

Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

Иногда файл robots.txt отсутствует вовсе.

Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

Настроили ему robots, теперь все в порядке:

Что конкретно мы сделали?

Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

Дублирование контента (дубли страниц)

Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

Одна страница может иметь как один, так и несколько дублей:

Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

Как найти и убрать дубли на сайте, рассказываем в данной статье.

Зеркала сайта

Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

Чек-лист для проверки:

  • Сайт должен быть доступен только по одному протоколу http или https.
  • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
  • Настроен 301 редирект со всех зеркал.
  • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  • Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2020 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

    Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    Поиск — это еще не всё. Инструменты Яндекса для привлечения трафика

    Руководитель отдела рекламы агентства Sabit Клара Лобина о том, на какие инструменты обратить внимание, если реклама в поиске дорогая и нерентабельная.

    Контекстная реклама на поиске стоит дорого, конкуренция высокая, а клиентов хочется привлекать по приемлемой цене.

    В этой статье расскажу о новых и забытых инструментах Яндекса, где цена за клик ниже заоблачной, конкурентов меньше, аудитория теплая.

    Будет интересно представителям малого, среднего и регионального бизнеса.

    Почему поиск бывает дорогим?

    Контекстная реклама появилась в России в 1998 году. 20 лет назад! Если раньше про нее мало знали и даже боялись, то теперь все стремятся рекламироваться в выдаче Яндекса и Google.

    В интернет-рекламе нет фиксированных цен — цена размещения определяется в результате аукциона в режиме реального времени. Чем выше конкуренция, тем выше ставка.

    На конец 2020 года в одном только Яндекс.Директе зафиксировано 32 млн рекламных кампаний и более 30 млн зарегистрированных аккаунтов. Даже если ваша тематика сейчас недорогая, то в горизонте нескольких месяцев или лет стоит ожидать, что и она станет конкурентной и, как следствие, недешевой.

    Поэтому важно находить альтернативные инструменты привлечения клиентов: новые и забытые старые, с низкой конкуренцией и невысокой ценой за клик.

    Откуда столько конкурентов?

    Во-первых, многие распробовали контекстную рекламу. Рекламодатели видят в выдаче своих конкурентов и хотят показываться там же.

    Топ-пост этого месяца:  Операторы JavaScript. Математические операторы

    Во-вторых, сейчас много курсов, каналов на YouTube, мастер-классов и форумов, которые удобоваримо и понятно объясняют, как настроить контекст. Многие смотрят, вдохновляются и запускают свои рекламные кампании. При этом не всегда уровень компетенции позволяет настраивать качественную рекламу.

    Некачественные объявления повышают стоимость клика, и аукцион перегревается.

    В ряде конкурентных тематик стоимость клика приближается к стоимости сделки. Например, в тематике натяжных потолков мы видим цены за клик порядка 2500 рублей в спецразмещении. При этом средний чек у клиента — около 6000 рублей.

    Для некоторых тематик, например, для доставки еды или регистрации фирм, высокие цены за клик принято считать оправданными: на стоимость первой сделки тратится много, однако потом рекламодатель своими силами увеличивает LTV клиента (совокупная прибыль компании, получаемая от одного клиента за все время сотрудничества с ним), привлекая на абонентское обслуживание или к постоянному сотрудничеству — это уже работа с лояльностью.

    Важность работы с лояльностью понятна, но ведь хочется, чтобы привлечение клиента стоило не баснословных денег и было выгодным.

    ​Популярный FAQ по поисковым запросам от Яндекса

    Итак, озвученный Платоном FAQ выглядит следующим образом.

    Почему в разделе «Поисковые запросы» мой сайт по одному ключу занимает некую позицию в выдаче, однако в реальности его место совсем другое? Это какой-то внутренний сбой Яндекс.Вебмастера?

    Нет, такое несоответствие является вполне нормальным. В целом, сведения, которые предоставляет этот раздел, на порядок точнее тех, которые вы можете собрать самостоятельно. Это объясняется тем, что пользователи из разных регионов и с разных мобильных устройств в одно и то же время могут видеть ваш сайт на разных позициях в нашем поиске. В этом разделе при составлении общей картины по конкретному поисковому запросу мы всегда это учитываем. Вы, скорее всего, нет.

    Кроме того, не стоит забывать, что статистика по поисковым запросам в Яндекс.Вебмастере отображается за период времени, который уже завершился. Обычно такая задержка измеряется несколькими днями. Следовательно, прямо сейчас вы можете наблюдать свой сайт в поиске Яндекса на определенной позиции по такому-то запросу, но в Вебмастере это место другое. Такое, каким оно было пару дней назад.

    Конечно, бывают ситуации, когда позиции сайта по заданному ключу в Яндекс.Вебмастере и результатах поиска сильно отличаются друг от друга на протяжении длительного времени. В таком случае мы рекомендуем обращаться в нашу Службу поддержки с детальным описанием проблемы.

    В чем причина того, что данные о переходах на сайт в Яндекс.Метрике и Яндекс.Вебмастере не совпадают?

    Чаще всего это происходит потому, что источник и природа анализируемых Метрикой сведений отличаются от того, что оценивает Вебмастер. Впрочем, могут быть и другие варианты. Если в Яндекс.Метрике показатели переходов ниже, то вы должны убедиться в правильности установки ее счетчика. Код должен присутствовать на всех страницах сайта. Может быть и такое, что у ресурса имеются проблемы с доступностью – человек кликает по ссылке в поиске Яндекса, но по какой-то причине переход на сайт не происходит.

    Если самостоятельно определить источник проблемы вам не удалось, расхождения в показателях Метрики и Вебмастера сохраняются, пишите в Службу поддержки. Не исключено, что это какая-то ошибка в расчетах на нашей стороне. В таком случае мы во всем разберемся, исправим баг и пересчитаем статистику для сайта в указанных сервисах.

    Как вы определяете среднюю позицию сайта? Почему позиция не целое число, а десятичная дробь?

    Средняя позиция сайта в нашем поиске, отображаемая в Яндекс.Вебмастере, зависит от его показов в выдаче. Предположим, что за одни сутки по заданному поисковому запросу сайт демонстрировался 33 раза на 4-ой позиции и 41 раз на 6-ой. В таком случае его средняя позиция по этому запросу будет равна:

    Почему у сайта очень низкий CTR в целом и по отдельным поисковым запросам?

    Причин тут может быть несколько. Во-первых, у вашего проекта могут быть не самые качественные сниппеты, в то время как у конкурентов они гораздо привлекательнее. Более того, ваши соперники по поиску часто практикуют разного рода акции, благодаря которым перехватывают трафик, который мог бы достаться вам. Чтобы убедиться в этом, предлагаем выбрать поисковые запросы с самым низким CTR и посмотреть глазами рядового пользователя, как именно выглядит выдача Яндекса по таким ключам. Скорее всего, даже невооруженным глазом вы сможете обнаружить причину такого положения вещей.

    Во-вторых, имеет значение и уже упомянутая средняя позиция сайта в нашем поиске. Очевидно, что проект, который занимает 10-ое место в самом низу первой страницы выдачи, будет не таким кликабельным, если сравнивать с конкурентом на 4-ой позиции ТОПа.

    Резкое падение CTR может быть спровоцировано и тем, что в поиске по заданному запросу отображается не одна, а сразу несколько страниц ресурса. В таком случае количество показов удваивается (фиксируется каждая ссылка), а число кликов остается на прежнем уровне, так как пользователь кликает чаще всего по одному линку.

    Почему в разделе «Поисковые запросы» отображаются ключевые слова и фразы, которые к моему сайту отношения не имеют?

    Помните, что мы никогда не придумываем поисковые запросы сами. Если в Яндекс.Вебмастере зафиксированы те или иные запросы, то в определенный период времени ваш сайт в самом деле можно было найти (или он до сих пор находится) по ним в нашем поиске. Это аксиома!

    Почему так? В большинстве случаев речь идет о некачественном контенте на страницах ресурса, который не соответствует тематике сайта. Иногда такой контент появляется по вине вашего хостинг-провайдера или в результате взлома.

    Что посоветовать? Проверить сайт на предмет уязвимостей, обновить его движок (CMS) и пароли к проекту.

    Известный факт, что в разные временные отрезки (сезоны) интерес к тематике сайта может быть разным. Большим или меньшим, но разным. Скажем, недавний Чемпионат мира по футболу в России значительно активизировал интерес пользователей Яндекса к спорту №1. Сейчас, после окончания ЧМ-2020, заинтересованность людей в футболе заметно снизилась. Конечно, мировое первенство проводится не каждый год, но ход мысли должен быть понятен.

    Поэтому если речь идет о таком сезонном спаде показов, то это можно легко выяснить. Достаточно сравнить нынешнюю динамику показов и переходов из поиска с прошлогодней, с той, которая была в прошлом месяце или на прошлой неделе. Скорее всего, сравнительный анализ покажет, что нечто подобное уже происходило с вашим сайтом в прошлом и имеет определенную тенденцию к повторению. Следовательно, волноваться не нужно. Падение интереса к сайту имеет естественные причины.

    К слову, чтобы в этом убедиться, можно также проанализировать то, как изменился трафик на сайт и из других поисковых систем (не только Яндекса). Или как обстоят дела у конкурентов. Если везде картина примерно одинаковая, то паниковать не стоит. Ситуация объективна и не зависит от вас!

    Однако если резкая просадка трафика не находит логического объяснения, тогда есть повод проверить в Яндекс.Вебмастере раздел «Безопасность и нарушения». Вполне вероятно, что сайт нарушает какие-то правила нашего поиска и за это расплачивается своими позициями в выдаче.

    Есть еще один, последний способ найти источник проблемы – начать постраничную проверку сайта. Находите с помощью той же Яндекс.Метрики (отчет «Страницы входа») страницы, которые лишились трафика.

    Затем проверяете, присутствуют ли эти страницы в выдаче Яндекса. Если вдруг их там нет, то попытайтесь выяснить – почему. Для этого используйте такие инструменты анализа, как «Проверить ответ сервера» или «Проверить статус URL».

    Если и это не дало результатов, тогда еще раз изучите названия и описания страниц. Постарайтесь объективно ответить самому себе – насколько они соответствуют контенту на странице и ожиданиям рядовых посетителей. Пройдитесь внимательно по проблемным страничкам. Быть может, причина всех бед в их устаревшей пользе для целевой аудитории. Да, вчера они еще были пригодны и высоко ранжировались в Яндексе, но сегодня, ввиду неустанного развития конкурентов, такие страницы стали попросту неконкурентоспособными.

    Это были лишь некоторые ответы на часто задаваемые вопросы о разделе «Поисковые запросы» в Яндекс.Вебмастере. Хотите узнать больше? Пишите Платону…

    10 основных причин, по которым страница сайта может не находиться в индексе поисковых систем Яндекс или Google

    Причина номер 1. Новая страница или новый сайт

    Первая причина, это то, что поисковые роботы еще просто не нашли новую страницу вашего сайта. В зависимости от того, какой ваш сайт, переобход страниц может занимать от нескольких минут до нескольких недель.

    Чтобы узнать, находится ли в индексе страница Вам необходимо воспользоваться сервисами вебмастера Яндекс или Google Search Console.

    В Яндекс.Вебмастере это раздел «Индексирование» — «Проверить статус URL». Если робот обошел и проиндексировал страницу, вы увидите уведомление «Страница обходится роботом и находится в поиске».

    Если робот о странице еще не знает, вы увидите сообщение «Страница неизвестна роботу».

    В новой версии Google Search Console вам нужен инструмент «Проверка URL». Если робот обошел и проиндексировал страницу, вы увидите уведомление «URL есть в индексе Google».

    Если робот на странице еще не был, вы увидите сообщение «URL нет в индексе Google».

    Причина номер 2. Страница или сайт закрыты от индексации в файле robots.txt

    Существует специальный файл robots.txt, который позволяет указать роботам на то, какие страницы сайта должны быть в индексе поисковых систем, а какие страницы не должны быть включены.

    Соответственно, если в файле прописаны запрещающие правила, в индексе поисковых систем данную страницу вы не найдете.

    Как проверить, закрыта ли страница в robots.txt?

    В Яндекс.Вебмастере: заходим в «Инструменты — Анализ файла robots.txt». В окно «Разрешены ли URL» вносим адреса страниц, которые мы хотим проверить. После того, как мы нажмем на кнопку «Проверить», внизу появится список введенных адресов и их статус: разрешены они для индексации или нет. Если нет, будет указано, какое из правил запрещает обход для робота.

    В Google похожий инструмент находится на вкладке «Сканирование — Инструмент проверки файла robots.txt».

    Важно! На данный момент эта вкладка находится в старой версии вебмастера!

    Причина номер 3. Указан запрет в User-Agent

    У поисковых систем есть свои требования к тому, как должен строиться файл robots.txt. И начинается он с приветствия. Приветствие может быть обращено к роботу яндекс, либо гугл, либо к обеим поисковым системам.

    Часто для Яндекс и Google делают отдельные секции в файле robots.txt. А потом забывают вносить правки в эти секции. Из-за этого роботы потом некорректно начинают индексировать сайт.

    Проверяем наличие проблемы также, как и в предыдущем случае. Главное — это делать в вебмастере Яндекс, и в вебмастере Google.

    Причина номер 4. Запрет на индексацию страниц указан в мета-теге robots.

    Суть этого мета-тега такая же, как и у файла robots.txt, только если страница закрыта в robots.txt она все равно может быть проиндексирована поисковыми системами. Но если на странице используется noindex или none, страница не будет добавлена в индекс.

    1. Проверить использование данного мета-тега на странице можно в коде (сочетание клавиш Ctrl+U)

    2. С помощью дополнения для браузера, например seo meta

    3. С помощью вебмастеров.

    Причина номер 5. Некорректно настроенный атрибут rel=canonical.

    Каноникал — это еще один атрибут, помогающий управлять индексацией страниц.

    Если rel каноникал настроен на другую страницу, то вы говорите поисковому роботу о том, что она схожа с другой станицей и первую страницу не нужно добавлять в индекс поисковых систем.

    Проверить использование данного атрибута можно также в исходном коде, с помощью дополнения для браузера — rds бар или seo meta.

    Также это можно увидеть в вебмастере Яндекс («Страницы в поиске»- «Исключенные страницы». Проверять необходимо статус «неканонические»).

    Причина номер 6. Проблемы с ответом сервера

    Для того, чтобы страница индексировалась, ее код ответа сервера должен быть 200 ОК. Если страница отдает ответ сервера 404 или 301, в индекс поисковых систем данная страница не попадет.

    Проверять код ответа лучше всего с помощью вебмастеров, они показывают наиболее точные данные. А вот визуальной проверкой лучше не ограничиваться, так как бывают случаи, когда страницы выглядят корректно, но код ответа сервера не 200.

    Причина номер 7. Проблемы с хостингом или сервером

    Представьте, вы приходите в магазин, а он не работает. Потом снова приходите в магазин, но он все равно не работает. Какова вероятность того, что вы вернетесь туда? Вероятнее всего очень маленькая.

    Тоже самое происходит и с поисковыми системами. Если он приходит на ваш сайт, а он не работает, то робот просто исключает страницы из индекса и не показывает их пользователям.

    Правильно, зачем пользователей приводить на неработающий сайт.

    Для того, чтобы отследить есть ли проблема, необходимо в вебмастерах проверять статус страниц. Если встречаются ошибки сервера 5хх (500, 503), а также если вам приходят уведомления из Яндекс.Метрики о том, что сайт не работает, необходимо решать данную проблему.

    Причина номер 8. Проблемы со скоростью загрузки страниц

    Скорость загрузки — важный показатель качества современного сайта. Если ваши страницы долго долго загружаются, роботы поисковых систем исключать такие страницы из индекса.

    Кроме того, скорость загрузки страниц — является фактором ранжирования в поисковых системах. Поэтому, если у вас с этим есть проблемы, срочно это исправляйте!

    Как проверить? Начните с инструмента PageSpeed Insights от Google. Дополнительно можете использовать сервисы Google Аналитика и Яндекс.Метрика.

    Совет! Важно проверять скорость загрузки для нескольких типов страниц и не останавливаться выполнив только одну проверку, т.е. выполнять данные работы периодически.

    Причина номер 9. Проблема с уникальностью и полезностью контента

    Поисковики уделяют большое внимание качеству контента, поэтому, если на странице расположен не полезный контент, либо же дублирующийся с другими страницами, такие страницы не добавляются в индекс поисковых систем.

    Как проверить, есть ли на сайте такие страницы — нужно зайти в вебмастер.

    В Яндексе — это отчет «Страницы в поиске» — «Исключенные страницы». Проверять нужно статусы «Дубль» и «Недостаточно качественная».

    В Google Search Console — это отчет «Покрытие» — «Страница является копией. Канонический вариант не выбран пользователем».

    Причина номер 10. Проблемы с AJAX

    Если ваш сайт выполнен на технологии AJAX очень важно правильно выполнить требования поисковых систем, для того чтобы поисковые роботы смогли проиндексировать страницы вашего сайта.

    Таким образом для каждой отдельной страницы должна быть своя HTML-версия.

    И напоследок, дадим вам несколько советов, как ускорить индексацию:

  • Добавить комментарий