HTTP-сайты не будут выделяться в выдаче Google специальной меткой


Содержание материала:

Продвижение сайтов в мобильной выдаче Google

Google анонсировал сразу два существенных изменения в алгоритме ранжирования сайтов в мобильной выдаче. Начиная с 27 февраля мобильные приложения, участвующие в App Indexing, начали ранжироваться выше у зарегистрированных пользователей, а уже с 21 апреля 2015 года поисковик запустит фактор дружественности мобильным устройствам.

Начиная с конца февраля, мобильные приложения, которые индексируются поисковиком через App Indexing, начали лучше ранжироваться в результатах поисковой выдачи мобильных устройств у зарегистрированных пользователей, установивших приложения на своих устройствах Android.

App Indexing ­­позволяет поисковику индексировать контент приложения, тем самым связывая страницы веб-сайта с контентом приложения. Проще говоря, теперь при поиске со смартфона поисковик предложит пользователю в первую очередь ссылку на приложение, при условии, что оно установлено на его устройстве. Это не только дополнительное удобство для пользователя (так как контент приложений адаптирован под мобильные устройства), но и возможность размещать контент из проиндексированных приложений на более заметном месте в категории. Для этого необходимо произвести ряд настроек.

Дружественные к мобильным устройствам сайты получат привилегии

Итак, что же изменится в мобильной выдаче Google 21 апреля? Мобильные факторы ранжирования Google начнут помечать в выдаче сайты как дружественные к мобильным устройствам, а также будут определять, какую позицию должен занимать ресурс. Эти изменения окажут существенное влияние на результаты мобильного поиска на всех языках, и, по заверениям представителей Google, обеспечат релевантную и качественную выдачу пользователям.

Уже несколько лет мы наблюдаем существенный рост мобильной аудитории интернета во всем мире. В январе 2015 года, по данным TNS , Google обогнал Яндекс и другие поисковые системы Рунета по популярности среди мобильных пользователей России, его аудитория составила 13,08 млн мобильных пользователей в месяц, аудитория Яндекса в аналогичный период — 11,3 млн мобильных пользователей, у Facebook — 10,1 млн мобильных пользователей в месяц. Google понимает, что в будущем рост прибыли компании кроется именно в мобильных пользователях. По статистике самого поисковика 39% пользователей мобильных устройств совершают с них покупку, 55% ищут товары или услуги с помощью своих смартфонов с целью совершения дальнейшей покупки.

Согласно данным PayPal и Ipsos в 48% случаев российские потребители пользуются смартфонами для сбора информации о товаре, 32% читают на них отзывы, а 25% сравнивают цены. На основе собранных данных специалисты прогнозируют рост рынка мобильной коммерции на 42% в период с 2013 по 2020 год.

Google довольно долго экспериментировал с мобильном фактором ранжирования. Кроме того, еще в январе поисковик оповестил веб-мастеров сайтов, не оптимизированных под мобильные устройства, что их ресурсы не будут высоко ранжироваться в мобильной выдаче.

Теперь же у владельцев сайтов есть несколько месяцев, чтобы сделать свои ресурсы дружественными к мобильным устройствам. Проверить, насколько мобильный сайт соответствует требованиям поисковика, можно при помощи отчета о мобильном юзабилити сайта в Google Webmaster Tools, а также инструмента проверки дружественности сайта к мобильным устройствам — Mobile-Friendly Test.

Поисковик разработал специальное руководство Google Developers, в котором владельцам ресурсов могут получить рекомендации по созданию сайтов, оптимизированных под мобильные устройства.

Google рекомендует

Улучшать мобильное юзабилити

Google считает, что основополагающий момент —это удобство пользователя, особенно когда речь идет о просмотре сайта на небольшом экране мобильного устройства. В связи с чем, он дает следующие рекомендации:

  1. Не используйте дополнительные окна в мобильной версии сайта. Это касается окон JavaScript , которые трудно закрыть, а также плавающих объявлений и рекламы.
  2. Оптимизируйте сайт для различных устройств. Не используйте плагины и видеоплееры, которые могут отсутствовать на мобильном устройстве пользователя (например, Adobe Flash Player). Google советует предоставлять пользователям сайт, оптимизированный под устройство, с которого совершается вход, то есть для смартфонов предпочтительна мобильная версия сайта, а для планшетов — оптимизированная версия для настольных компьютеров или сайт для планшетов. При этом важно оставлять пользователю выбор, предоставляя ему возможность переключиться с мобильной версии на версию для ПК.
  3. Облегчайте мобильные страницы, ускоряя тем самым их загрузку. Пользователь не должен тратить слишком много времени на загрузку и мобильный трафик.

Выделяться в мобильном поиске

Оптимизируйте сайт под требования поисковых систем, а также сделайте его удобнее для пользователей, которые приходят из поиска. Разрешите индексацию ресурсов ( CSS , JavaScript и т. д.) в robots.txt . Google рекомендует оптимизировать ресурс под поисковые системы в зависимости от способа его реализации:

  • В случае сайта с адаптивным дизайном обязательно включите запрос CSS @media.
  • Если есть отдельная мобильная версия сайта, добавьте атрибуты rel=alternate media и rel=canonical , а также HTTP-заголовок Vary: User-Agent , так поисковый робот Google сможет сразу указывать мобильный URL в результатах поиска.
  • Для сайтов с динамическим показом необходимо добавить HTTP-заголовок Vary: User-Agent .

Делать сайт привлекательным для пользователей

Придумывайте новые способы увлечь пользователя, создавайте интересное мобильное приложение для вашего сайта (и не забудьте добавить его на индексацию поисковыми роботами Google), используйте интерактивный дизайн, задействуйте жесты (перелистывание, встряхивание и т.п.).

Последнюю рекомендацию от Google хочется дополнить советами Якоба Нильсена, известного консультанта по юзабилити и веб-дизайну:

  • Используйте отзывчивый дизайн, он позволит ресурсу корректно отражаться на экранах различных размеров.
  • Не забывайте про корректное масштабирование шрифтов под разные устройства. Контент сайта должен хорошо читаться с разных устройств.
  • Увеличьте размер активных элементов на странице мобильных сайтов. Попасть пальцем в маленькие или тесно сгруппированные ссылки и кнопки гораздо сложнее, чем указателем мыши. Поэтому в мобильных устройствах активные элементы должны быть довольно крупными, чтобы пользователь без затруднения мог выбрать необходимый ему элемент.
  • Масштабируйте контент для области просмотра. Ведь это крайне неудобно, если приходится уменьшать масштаб или использовать горизонтальную прокрутку.

Мы рекомендуем не пренебрегать мобильной аудиторией и активно работать над оптимизацией сайта под мобильные устройства наравне с поисковой оптимизацией сайта. Одновременное продвижение сайта в большом и мобильном поиске позволит существенно увеличить общий трафик и количество клиентов.

Google не намерен помечать HTTP-сайты в выдаче как ненадежные

Несмотря на то, что Google активно продвигает HTTPS, сейчас поисковик не собирается помечать в результатах поиска HTTP-сайты как ненадежные. Об этом сообщил представитель компании Гэри Илш.

Ранее стало известно о том, что Google работает над добавлением соответствующей метки для всех HTTP-сайтов в Chrome. Отметка «ненадежный» отображается в адресной строке браузера. Однако расширять это нововведение на поисковую выдачу не планируется.

Стоит отметить, что Джон Мюллер из Google посоветовал вебмастерам переводить на HTTPS весь сайт сразу, а не поэтапно.

Всё, что надо знать о органическом CTR в Google в 2020 году

Брайан Дин проанализировал 5 миллионов результатов поиска в Google, чтобы лучше понимать от чего зависит частота кликов.

Проанализированы данные CTR по:

  • 874 929 страницам
  • 5 079 491 поисковым запросам.

Затем рассмотрены как акторы влияют на органический CTR:

  • длина тега title,
  • настроение заголовка и meta description

Благодаря данным, предоставленным ClickFlow, Брайан смог получить данные CTR из нескольких учётных записей Google Search Console.

Результаты:

1. Страница, находящаяся на первом месте в результатах обычного поиска Google, имеет средний CTR 31,7%.

2. Страница на первом месте имеет в 10 раз больше шансов получить клик по сравнению со страницей на 10 месте.

3. Органический CTR для позиций 7-10 практически одинаков. Поэтому, если вы находитесь внизу первой страницы и поднялись не несколько позиций вверх, то не стоит рассчитывать на обязательное увеличение органического трафика.

4. В среднем, продвижение на одну позицию в результатах поиска увеличит количество кликов на 30,8%. Однако, это зависит от того, откуда вы движетесь и куда. Переход с 3 места на 2, обычно приводит к значительному увеличению CTR. Однако, переход от 10 места к 9 не оказывает почти никакого влияния.

5. Теги title, содержащие в себе вопрос, имеют CTR на 14,1% выше, чем страницы, у которых нет вопроса в заголовке.

6. Теги title длиной от 15 до 40 символов имеют самый высокий CTR. Согласно данным, страницы с длиной тега заголовка от 15 до 40 символов имеют CTR на 8,6% выше по сравнению с теми, которые находятся вне этого диапазона.

7. URL-адреса, содержащие ключевые слова, имеют показатель кликов на 45% выше по сравнению с URL-адресами, которые не содержат ключевых слов.

8. Добавление «Мощных эпитетов» [в оригинале «Power Words »] в тег title может снизить ваш CTR. Тайтлы с Мощными эпитетами имели CTR на 13,9% ниже по сравнению с названиями, которые их не содержали.

9. Эмоциональные title могут улучшить ваш CTR. Заголовки с положительным или отрицательным настроением, улучшают CTR примерно на 7%.

10. Написание мета-описаний для ваших страниц может привести к повышению CTR. Страницы с мета-описанием получают на 5,8% больше кликов, чем без него.

Ниже представлена подробная информация по исследованию.

Страница на первом месте в выдаче Google получает 31,7% всех кликов

Первоначальная цель исследования состояла в том, чтобы установить контрольные показатели CTR.

5 миллионов результатов, обнаружено, что страница на первом месте имеет самый высокий CTR (на данный момент).

Резкое снижение CTR, начиная со 2-й страницы результатов:

Только 0,78% пользователей кликнули на 2 страницу.

Эта тенденция CTR согласуется с другими исследованиями в отрасли CTR, например, из Advanced Web Ranking.

Поскольку CTR, начиная со 2-й страницы, чрезвычайно низок, Брайан сосредоточился на результатах первой страницы. Также были исключены запросы с аномально высоким CTR, которые могут исказить результаты (например, брендовые запросы).

И после того, как были проанализированы только результаты первой страницы с этим подмножеством данных, получено, что результат на первом месте в Google имеет CTR 31,7%.

Вот полная разбивка CTR для первой страницы Google:

Согласно недавнему опросу Moz, многие пользователи Google инстинктивно нажимают на первый результат в Google. Это, вероятно, объясняет, почему результат №2, который всего на несколько пикселей ниже первого места, имеет такой большой спад CTR.

Вывод: результат №1 в Google получает 31,7% всех кликов.

ТОП3 органических результата получают 75% кликов

Это может быть связано с тем, что для результатов выдачи без рекламы или SERP-функций, результат №3 часто не требует дополнительного скролла вниз.

Фактически, обнаружено, что топ-3 результатов поиска Google получают 75,1% всех кликов.

Вывод: наши данные показывают, что «ранжирование на первой странице» не может быть достойной целью SEO. Вместо этого, лучше сфокусироваться на попадании на первую позиции (или, по крайней мере, в ТОП3).

Перемещение на одну позицию увеличивает CTR на 30,8%

Обнаружено, что при прочих равных условиях продвижение на одну позицию в Google увеличивает CTR на 30,8%.

Однако, это повышение CTR распределяется неравномерно. Влияние CTR при перемещении вверх в поисковой выдаче сильно варьируется в зависимости от позиции.

Например, переход с позиции №9 на №8 приведёт к увеличению числа кликов на 5%. Однако, переход от №6 к №5 приведёт к увеличению количества кликов на 53,2%.

Вывод: перемещение на одну позицию в Google увеличит ваш относительный CTR в среднем на 30,8%.

Большинство сайтов получают 8,1 кликов за запрос

Для всех запросов, представленных в консоли поиска Google, команда Дина посмотрела, сколько из них привели к кликам.

Во-первых, обнаружено, что большинство запросов, по которым сайт ранжируется в Google, получают очень мало показов.

Это говорит о том, что большинство ключевых слов, по которым сайт ранжируется – это длинные хвосты с малой частотностью. Или что сайт не имеет высокого рейтинга по этим запросам. Или и то и другое вместе.

И, вероятно, из-за небольшого числа показов большинство запросов приводит к небольшому количеству кликов (8,1 на каждый запрос).

Вывод: «Ранжирование по ключевым словам X» не может быть ценной метрикой SEO. Большинство страниц ранжируются по ключевым словам с небольшой частотностью. Вместо этого, большинство показов и кликов, как правило, происходят из относительно небольшого числа запросов.

Вопросительные title имеют более высокий средний CTR

Сравнили средний органический CTR между заголовками, которые содержали вопрос и заголовками без него (вопросительным title – это тот, который использует «как, почему, что, кто» или title со знаком вопроса).

Обнаружено, что вопросительные заголовки имели на 14,1% больше кликов по сравнению с обычными.

Вот полный CTR по 10 лучшим результатам.

Этот вывод соотносится с заголовком CTR исследования, опубликованного в журнале Social Influence.

Вопросы могут повысить CTR, ведь когда кто-то что-то ищет в Google, он, по сути, ищет ответ на вопрос. А использование вопросительного заголовка может подтвердить читателю, что ваш результат содержит ответ на их вопрос.

Вывод: теги заголовков на основе вопросов имеют CTR на 14,1% выше, чем заголовки без вопросов.

Теги title длиной от 15 до 40 символов имеют более высокий CTR

Какова идеальная длина тега title? Вы должны делать свои заголовки емкими и только по существу? Или использовать длинные заголовки, которые содержат много информации о вашем контенте? Нужно найти золотую середину.

В частности, обнаружено, что title от 15 до 40 символов имеет самый высокий органический CTR.

Несмотря на то, что SEO-теги с длинными заголовками (более длинные заголовки = больше ключевых слов) могут быть полезны для SEO, это может быть частично компенсировано более низким органическим CTR.

Вывод: теги title длиной от 15 до 40 символов имеют лучший органический CTR.

URL с ключевыми словами коррелируют с более высоким CTR

Оказывают ли положительно влияние на CTR ключевые слова в URL?Например, возьмите кого-нибудь, кто ищет «поездки на выходные». Будет ли такой URL, как domen.com/weekend-trips, иметь более высокий CTR, чем domen.com /travel-page?

Чтобы выполнить этот анализ, были рассмотрены поисковые запросы и их с URL-адреса, далее предоставлени индекс сходства в диапазоне от 0% до 100%.

Значение 0% означает, что два слова совсем не похожи, а значение 100% означает идеальное совпадение. Были проигнорированы все знаки препинания и спецсимволы. Учитывались слокнения и спряжения слова (“книга” и “книг”, “торт” и “торты” и т.д.).

Обнаружена сильная корреляция между ключевыми словами в URL и органическим CTR.

Несмотря на то, что идеальное совпадение запроса и ключевого слова привело к наивысшему CTR, данные показывают, что URL, который частично соответствует запросу, также может привести к значительному увеличению CTR.

Руководство по поисковой оптимизации Google напоминает веб-мастерам, что URL-адрес страницы отображается в результатах поиска.

Google: Систематизируйте свой контент так, чтобы структура каталогов позволяла пользователям легко ориентироваться на сайте, а URL отражали содержание страниц.

Теория, лежащая в основе этого, заключается в том, что пользователи поисковых систем используют URL-адрес страницы, чтобы определить наилучшее соответствие для своего запроса.

Вывод: увеличение CTR на 45% для страниц с идеальным соответствием запроса по сравнению с несоответствием.

«Мощные эпитеты» могут негативно повлиять на частоту кликов

«Мощные эпитеты» – это конкретные слова и фразы, для выделения заголовкам от конкурентов.

Например, такие термины, как:

  • Секретный
  • Мощный
  • Максимальный
  • Идеальный
  • Отличный
  • Лучший
  • Удивительный

Наши данные показали, что эпитеты снизили CTR на 13,9%.

Вывод: хотя эпитеты могут работать в социальных сетях, они могут повредить вашему органическому CTR.

Эмоциональные title могут увеличить частоту кликов

Данные показывают, что эмоциональные заголовки (заголовки с положительным или отрицательным настроением) имеют более высокий CTR по сравнению с эмоционально нейтральными заголовками.

Эмоциональные заголовки имеют абсолютный CTR на 7,3% выше по сравнению с неэмоциональными заголовками.

Негативные и позитивные заголовки, как правило, работают одинаково хорошо. Заголовки с положительным настроением имеют CTR на 7,4% выше, в то время как заголовки с отрицательным настроением имеют CTR на 7,2% выше.

Для этого анализа каждое слово в заголовке исследовалось на «полярность текста». Каждому заголовку присваивалась оценка настроения.

В нескольких исследованиях, в том числе в BuzzSumo, обнаружена связь между эмоциональными заголовками и заинтересованностью пользователя.

По крайней мере, согласно данным Брайана Дина, эмоциональные заголовки могут привести к повышению CTR в органической выдаче.

Интересно то, что, хотя мощные эпитеты наносит вред CTR, эмоциональные заголовки помогают CTR.

Это может быть связано с тем, что настроение является более тонкой вещью, чем наличие или отсутствие отдельного эпитета. Другими словами, можно написать эмоционально заряженный заголовок без использования эпитетов. И названия, которые ловко нажимают на эмоциональные кнопки, а не выглядят как приманка для кликов, могут выделиться и получить больше кликов.

Вывод: у заголовков с отрицательным или положительным настроением более высокий органический CTR по сравнению с нейтральными заголовками.

Страницы с мета-описанием имеют более высокий средний CTR по сравнению со страницами без него

Несмотря на то, что описания не влияют непосредственно на SEO, Google по-прежнему рекомендует писать уникальное мета-описание для каждой страницы вашего сайта.

По полученным данным страницы с мета-описаниями имели на 5,8% лучший CTR по сравнению со страницами без них.

Этот вывод не должен удивлять кого-либо с опытом в SEO. Не смотря на то, что Google не всегда использует мета-описания, которые вы пишете для них, ваше мета-описание может довольно часто появляться в поисковой выдаче.

Без мета-описания, к которому можно обратиться, Google должен извлечь фрагменты с вашей страницы, чтобы заполнить это пространство в сниппете.

И текст, который Google извлекает из вашей страницы, почти всегда будет менее заманчивым, чем хорошо написанное описание.

Вывод: страницы с мета-описанием имели на 5,8% больше CTR по сравнению со страницами без описания.

Почему сайт просел в поиске: 9 фатальных ошибок, способных угробить любой сайт

Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

    Фильтры и санкции поисковых систем

Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

Контент

Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

Проверяйте уникальность текстов перед размещением на text.ru.

Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

Теги Title и Description, заголовки H1-H3

Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

Либо переспам ключами в заголовках:

Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

Переезд на https

C января 2020 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

Файл robots.txt

Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

Иногда файл robots.txt отсутствует вовсе.

Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

Настроили ему robots, теперь все в порядке:

Что конкретно мы сделали?

Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

Дублирование контента (дубли страниц)

Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

Одна страница может иметь как один, так и несколько дублей:

Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

Как найти и убрать дубли на сайте, рассказываем в данной статье.

Зеркала сайта

Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

Топ-пост этого месяца:  Оборонные предприятия подключат к отдельной сети

Чек-лист для проверки:

  • Сайт должен быть доступен только по одному протоколу http или https.
  • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
  • Настроен 301 редирект со всех зеркал.
  • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  • Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2020 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

    Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    Почему вам не стоит пытаться занять первое место в выдаче Google

    Знаете ли вы, какой запрос чаще всего мне приходит от подписчиков по электронной почте?

    Давайте поиграем. Как вы думаете, что это за запрос?

    Так и быть, скажу. Люди просят у меня денег.

    Но знаете ли вы, какой второй самый распространённый запрос по электронной почте я получаю?

    Компании просят меня вывести их на первое место в ранжировании Google по определённому запросу.

    И я должен сказать, вкладывать все силы ради выхода на первое место в выдаче Google ー это большая потеря вашего времени. Просто взгляните на мой сайт… вот трафик из Google за последний 31 день:

    Как видно из графика, каждый месяц аналитика регистрирует 2 375 455 сеансов. Эти люди приходят из органического трафика поисковых систем.

    А можете ли вы угадать, сколько ключевых слов я отслеживаю, когда речь идёт о ранжировании?

    Большой жирный ноль!

    Я не говорю, что не занимаюсь SEO-продвижением, я говорю, что не направляю все силы на ранжирование.

    Можете ли вы увеличить поисковый трафик, не отслеживая позиции в выдаче?

    Краткий ответ: да.

    Как видно из приведённого выше графика, ежемесячно из органического поиска приходит более 2-х миллионов людей. Если вы оглянетесь на год назад, тогда в месяц из поиска приходило 970 459 посетителей.

    Другими словами, я смог увеличить органический поисковый трафик на 144% примерно за 12 месяцев. Это не так уж и плохо, учитывая, что я не продвигаюсь ни по одному ключевому слову.

    Так почему бы мне не сосредоточиться на конкретных ключевых словах и не отслеживать свои позиции?

    Первое место не гарантирует больше кликов

    Компания Ahrefs недавно провела исследование, в котором показала, что первое место не гарантирует наибольшее количество кликов.

    На рис.: Насколько часто самые популярная страница из выдачи получает наибольшее количество трафика? (Результаты основаны на исследовании около 100 000 небрендированных запросов, с частотой по меньшей мере 1000 запросов в месяц).

    Страница номер 1 получает большую часть трафика только в 49% случаев. Не поймите меня неправильно, я бы предпочёл быть номером 1, а не номером 2, но попадание на первое место не гарантирует большую часть трафика.

    И со временем будет только хуже.

    Посмотрите, как выглядели страницы поисковой выдачи в 2014 году.

    На рис. Запрос «ипотека»

    Теперь давайте посмотрим, как выглядит поисковая выдача сегодня.

    Какие существенные различия вы видите?

    1. Платные объявления можно перепутать с органической выдачей ー они не так чётко выделяются, как это было раньше. Другими словами, они растворяются в выдаче, что помогает рекламе получать больший процент кликов.
    2. Локальные объявления могут оказаться рекламой ー первые места в локальном поиске также оплачиваются.
    3. Справа больше нет рекламы ー большинство элементов на правой стороне, когда вы нажимаете на них, заставляют вас выполнить другой поиск в Google.
    4. Меньше позиций из органического поиска. На главной странице есть только 9 органических позиций, если вы исключите локальные объявления.
    5. Органические результаты стремятся вниз ー в начале страницы отображаются не только платные объявления и локальные результаты. Между органическими позициями также отображаются новости. Это приводит к тому, что 3-й, 4-й, 5-й… органический результат получает меньше кликов.

    Общая тенденция заключается в том, что люди уделяют больше внимания платным объявлениям, чем обычной выдаче. И органическая выдача больше не гарантирует такой же высокий результат, как раньше.

    Достаточно взглянуть на исследование движения глаз по странице результатов поисковой выдачи Google.

    Оно ясно показывает, что платным объявлениям достаётся большая часть внимания.

    Так значит ли это, что вы должны сдаться?

    Нет, я не хочу нарисовать картину того, что вы не должны пытаться занимать высокие позиции в Google или что SEO-оптимизация бесполезна. Потому что, хотя Google и продолжает корректировать макет своей страницы с результатами поисковой выдачи, это всё ещё самый популярный сайт в мире.

    Google насчитывает 57,34 миллиарда посещений в месяц. И у вас нет выбора, кроме как заняться SEO-оптимизацией!

    Но вы не должны тратить своё время на размышления о каждом изменении, которое вносит Google, потому что оно находится вне вашего контроля.

    Посмотрите, сколько изменений в алгоритме они сделали за последние 12 месяцев. Слишком сложно идти в ногу с каждым изменением или прогнозировать следующий шаг Google. Вот почему я использую другой подход, чтобы опередить грядущие изменения в алгоритме поисковика.

    Я делаю ставку на пользовательский опыт.

    Что вы должны сделать?

    Вы не сможете контролировать свои позиции по каждому отдельному ключевому словуособенно если вы делаете SEO-оптимизацию правильно.

    Большая часть вашего трафика должна исходить из длинных фраз, то есть низкочастотных запросов. Просто посмотрите на мой блог, я ранжируюсь по 477 000 ключевым словам.

    Ключевых слов слишком много, чтобы отслеживать их на регулярной основе.

    Я сосредоточен на 3 вещах:

    1. Создайте удивительный пользовательский опыт ー Google не хочет высоко ранжировать сайты, которые являются «лучше всего оптимизированными». Поисковая система хочет продвигать наверх сайты, которые больше всего нравятся пользователям. Итак, сфокусируйтесь на том, чтобы сделать свой сайт лучшим, и в конечном итоге вы должны занять более высокое место.
    2. Общий органический рост трафика ー ключевые слова становятся трендовыми, но со временем их популярность меняется. Вместо того, чтобы сосредоточиться на нескольких ключевых словах или даже нескольких сотнях слов, я просто концентрируюсь на увеличении общего органического трафика. Пока он продолжает расти квартал за кварталом, я счастлив.
    3. Коэффициент конверсии ー много трафика не означает увеличение продаж. Я постоянно оптимизирую показатели конверсии, чтобы у каждого моего дополнительного посетителя из органического поиска было больше шансов превратиться в клиента.

    Я сказал, что сосредотачиваюсь на 3-х вещах, и это правда… но время от времени я сосредотачиваюсь на ещё одной вещи. Это обновление моего старого контента.

    Если бы мне пришлось добавить 4-й пункт в список, это было бы обновление старого контента. Несмотря на то что я достаточно хорошо разбираюсь в SEO-оптимизации, нет никакой гарантии, что даже мой трафик продолжит расти.

    Как и у вас, время от времени трафик на мой сайт падает.

    Это паршиво, когда ваш трафик падает на 6,94% за неделю, и страшно, когда тенденция продолжается. Но когда это произойдёт, следуйте этим инструкциям, и вы сможете обратить вспять тенденцию снижения трафика.

    Какой стратегии последовать?

    Чтобы получить больше трафика, я использую несколько стратегий SEO-оптимизации, которые всё ещё работают сегодня. Если вы последуете им, то со временем получите больше трафика:

    1. Глобализация. Поиск не слишком конкурентен за пределами англоговорящего интернет-сообщества. Эта ситуация быстро меняется, поэтому я бы последовал этим советам по глобализации как можно скорее.
    2. Внешняя SEO-оптимизация. Она всё ещё значительно влияет на ранжирование, и вы не можете игнорировать это. Вот 6 стратегий по внешней SEO-оптимизации, которым стоит последовать.
    3. Ссылочная масса. Вот одна из моих любимых стратегий наращивания ссылочной массы… Иона работает очень хорошо. Даже если у вас новый сайт и никто вас не знает, вы сможете создавать ссылки, используя её.
    4. Приземляйся и расширяйся. Вы уже ранжируетесь в Google. Эта стратегия позволит вам превратить одну позицию в сотни.
    5. Создание бренда. Бренды Google хочет ранжировать выше, чем не-бренды. Следуйте этим советам, поскольку они помогут вам создать бренд.

    Есть множество других тактик и стратегий, которыми пользуются люди, но 5 главных из них, которые я упомянул выше, всё ещё хорошо работают в сегодняшнем конкурентном поисковом пространстве.

    Заключение

    Да, вы хотите постоянно увеличивать количество поискового трафика, но зацикленность на том, является ли поисковый запрос номером 1 на странице выдачи, не имеет смысла.

    SEO-оптимизация перешла на стратегию низкочастотных запросов с длинными фразами. Цель теперь состоит не в том, чтобы ранжироваться по одному ключевому слову или даже сотне или тысяче… Цель состоит в том, чтобы с течением времени ранжироваться по сотням тысяч, если не миллионам ключевых запросов.

    И пока эта тенденция постоянно растёт, у вас всё будет в порядке.

    Один из способов проверить, что всё идёт как надо, ー это использовать инструмент Ubersuggest. Когда вы вобьёте свой домен, то увидите диаграмму, которая выглядит примерно так:

    На рис. Ранжирование по ключевым словам

    Вам нужно, чтобы общее количество ключевых слов со временем увеличивалось, и чтобы небольшая зелёная полоса росла с течением времени, поскольку это означает, что более солидная часть ваших записей продвигается в Google.

    Итак, вы собираетесь продолжать делать упор на ранжировании?

    Оригинал публикации: https://neilpatel.com/blog/rank-1-on-google/ Перевела на русский язык Татьяна Пушкина специально для Convert Monster

    Подпишись и следи за выходом новых статей в нашем монстрограмме

    Остались вопросы?

    Не нашли ответ на интересующий Вас вопрос? Или не нашли интересующую Вас статью? Задавайте вопросы и темы статей которые Вас интересуют в комментариях.

    10+ способов влияния на поисковую выдачу (SERP)

    Привет, друзья! Как известно, поисковые системы для многих сайтов — это главный источник посетителей. Одним из вариантов увеличения трафика с поисковиков является работа над проектом в качестве его оптимизации в результатах поиска. Сегодня я рассмотрю все известные мне способы и методы, благодаря которым можно влиять на SERP.

    Напомню, что SERP или говорят еще «серп» (от английского — Search Engine Results Page) — страница с результатами поисковой системы. Это то, что видит пользователь после ввода своего запроса. Если оптимизировать сайт в выдаче поисковых систем и сделать его более заметным и привлекательным для клика, то можно увеличить количество посетителей. Это будет происходить по 2-м вещам:

    1. Увеличивается CTR ресурса в серпе и при прочих равных условиях увеличивается количество переходов.
    2. Из-за учета поисковыми системами поведенческих факторов ранжирования сайты, имеющие высокий CTR в выдаче, могут повышаться в рейтинге и улучшать свои позиции. Все это тоже увеличит количество трафика с поисковиков.

    Итак, видно, что работа в этом плане — это неплохая инвестиция в проект. Какие же существуют методы влияния на SERP?

    1. Тег Title

    Это, пожалуй, самое основное, что привлекает внимание пользователя. Я проанализировал максимально показываемую длину заголовка сайтов, которые одновременно являются и ссылками на ресурс в Яндексе и Google. В яндексе — это 70 символов с пробелами, а в Google — 60. То есть желательно, чтобы ваш тег Title не превышал этих цифр. В таком случае пользователь сможет увидеть не обрезки, а полноценный заголовок страницы.

    Не обязательно, чтобы Title состоял только из поискового запроса. Во-первых, с точки зрения SEO это не всегда нужно. Во-вторых, можно использовать заманивающий и привлекательный текст. «Мой список лучших. «, «10 секретов. «, «Популярные. » и так далее.

    Если же поисковый запрос содержится в теге, то это, конечно, только на руку, так как он будет выделяться жирным, а сайт становиться более заметным. Здесь же не стоит забывать о словах синонимах (раскрутка = продвижение, самостоятельно = самому и так далее), а также о спектральных выражениях (купить, самостоятельно, что такое, фото, видео и так далее). Все это тоже может выделяться поисковой системой (в основном Яндексом). Небольшой пример.

    3-й вариант здесь проигрывает по наглядности. Зато сниппет у него лучше, чем, например, у меня . В комплексе 2-й вариант выглядит наиболее привлекательным. Также важным моментом будет являться наличие ключевого слова в начале заголовка. Это привлечет больше внимание к сайту нежели, если оно будет в конце тега, например, как кусок в 3-м варианте.

    Существуют оптимизаторы, которые пишут некоторые ключевые слова в заголовке БОЛЬШИМИ БУКВАМИ (или весь текст в теге title). Возможно, это оправдано, но я бы не советовал пользоваться этим методом.

    Итого получаем, что в идеале title не должен превышать 60-70 символов, быть привлекательным для пользователя, а также содержать ключевые слова или поисковый запрос в самом начале.

    2. Мета-тег Description

    В сравнительной таблице особенностей продвижения под Яндекс и Google я уже писал, что содержание этого тега часто появляется в сниппете Гугла. Сниппет — это текстовое описание сайта в поисковой выдаче.

    В данном примере текст, выделенный зеленным цветом, является сниппетом. Он был взять из мета-тега description (кроме даты). В яндексе такое бывает, но очень редко. В выдаче Google показывается не более 150-160 символов в сниппете. Поэтому в принципе стоит придерживаться этого значения. В идеале мета-тег description должен:

    1. Быть уникальным для каждой страницы.
    2. Коротко рассказывать о содержании документа.
    3. Включать в себя основные ключевые слова, по которым планируется продвижение.
    4. Быть привлекательным для пользователя.

    3. Быстрые ссылки

    Это ссылки на важные и популярные страницы ресурса. Они появляются только на первой странице серпа, в основном в ТОП 5. В яндексе они могут выглядеть, например, вот так.

    В google могут выглядеть вот так.

    Если запрос брендовый или явно указывающий на принадлежность к определенному сайту (например, Википедия или vkontakte.ru), то быстрые ссылки в гугле значительно увеличиваются.

    Быстрые ссылки, как правило, появляются на страницы меню (например, доставка, услуги, контакты, о компании и так далее) и на наиболее важные документы (в качестве факторов определения может служить посещаемость, входящие внутренние ссылки, а также линки с других сайтов).

    Посмотреть, какие быстрые ссылки для ресурса определила поисковая система (если определила) можно в Яндекс.Вебмастер (Раздел «Сайт в результатах поиска» -> «Быстрые ссылки») и Google Webmasters (Раздел «Конфигурация сайта» -> «Ссылки сайта»).

    Здесь же можно посоветовать поисковику, какие ссылки лучше всего выводить. В яндексе, например, действуют следующие ограничения.

    Как-то специально создавать быстрые ссылки вряд ли получится, да и в принципе не зачем. Единственное стоить заботиться о понятной и логической структуре сайта. В таком случае со временем они сами определяться. Останется только выбрать из них понравившиеся.

    4. Красивый URL в Google

    Кто-нибудь из вас видел такие урлы в выдаче поисковой системы Google?

    Это можно сделать, добавив на страницу немного кода. Сначала дам ссылку на генератор сниппетов для Google. Там вы увидите, как это делается. Например, можно получить такие урлы (это придуманные варианты).

    Как я понял, для каждой страницы необходимо указывать такую конструкцию. Иначе, если сделать подобный красивый URL только для главной, то появляться он будет только тогда, когда в серпе будет участвовать главная страница.

    5. Фавикон

    Проект без фавикона в серпе Яндекса при прочих равных условиях проигрывает ресурсу с этим элементом. Добавить его на сайт совсем недолго, а вот качественный, запоминающийся фавикон может послужить хорошую службу. Google этот элемент в поисковой выдаче не выводит. У «Мира советов» фавикон неплохой .

    Если, конечно, он у всех будет такой, то смысл его потеряется . Так что здесь фантазия только приветствуется. При создании фавикона не забудьте, что он не только должен быть ярким и запоминающимся, но и отражать суть сайта, возможно, быть одним из графических элементов проекта.

    6. Ссылки на аккаунты в социальных сетях.

    Это что-то новенькое, и заметил в Яндексе совсем недавно. Вот как это выглядит.

    Какой-то специальной разметки для ссылок (кнопок) на аккаунты в социальных сервисах я не нашел. Возможно, робот нашего зеркала рунета сам определяет эти ссылки на определенных сайтах (может быть, только на трастовых).

    В связи с этим, завести аккаунты в социальных сетях будет полезно не только для SMM, но и для лучшего вида в SERP. Я недавно задал вопрос в службу поддержки:

    Здравствуйте! Планирую разместить на сайте www.site.ru блок «Мы в социальных сетях», в котором дать ссылки на страницы и группы в популярных соц. сетях (twitter, vkontakte.ru и так далее). Недавно заметил в поисковой выдаче Яндекса в сниппетах ссылки на соц. сети. Скажите, пожалуйста, есть ли какие-нибудь рекомендации по организации ссылок на социальные сети, чтобы они появлялись в поисковой выдаче Яндекса?

    Достаточно быстро пришел ответ:

    Добавить социальные ссылки к сниппету сайта можно двумя способами.
    1) Разместите их на главной странице сайта. Ссылки распознаются поисковым роботом и автоматически добавляются к сниппету.
    2) Укажите ссылки вручную через интерфейс Справочника организаций, в поле «Адрес сайта». Перейти на форму редактирования данных Вы можете из Яндекс.Вебмастера, через раздел «География сайта» — «Адреса и организации».

    Ссылки будут опубликованы на странице результатов поиска через 2 недели после добавления.

    Вот как это выглядит. Правда работать будет, скорее всего, только для организаций.

    7. URL-ы в выдаче

    Часто поисковые системы вместо исходного урла вставляют текст-альтернативу на русском языке. Как это может выглядеть. Например, так.

    Здесь все это берется из хлебных крошек. Google видимо любит форумный движок IPB и делает подобные урлы даже у молодых сайтов на этой CMS. Или такой вариант в Яндексе.

    Если в Google информация бралась из хлебных крошек, то тут она берется из title и входящих ссылок на страницу. В связи с этим делайте понятную структуру у сайта, добавляйте хлебные крошки, вставляйте внутренние контекстные ссылки. Это все поможет при составлении подобных урлов.

    Также в Гугл Вебмастере можно указать, как показывать ваш проект в поисковой выдаче с www или без www. Это меняется в разделе «Конфигурация сайта» -> «Настройки».

    В яндексе же можно задать, чтобы некоторые символы писались с большой буквы. Я, например, поменял sosnovskij на Sosnovskij. Также сейчас на рассмотрении MasterWebs вместо masterwebs. URL в таком случае легче воспринимается. Подать заявку на изменение вашего адреса сайта в серпе главного отечественного поисковика можно в Яндекс.Вебмастере в разделе «Сайт в результатах поиска» -> «Регистр имени сайта».

    8. Форматы микроразметки

    Поисковые системы (Google, Yandex, Bing, Yahoo) начинают активно использовать семантическую разметку в серпе. Главным стандартом сейчас является Schema.org. Благодаря микроразметке поисковая выдача должна представиться в лучшем виде, а сайты, которые ее используют, смогут привлечь больше целевых посетителей.

    Разметке поддается огромное количество данных: от адресов и авторов публикации до списка актеров фильмов и их наград. Здесь нет необходимости передавать какую-то информацию каждому поисковику. Достаточно просто правильно разметить HTML ресурса. Вообще этот пункт очень интересный. Я думаю, что микроразметка станет достаточно популярной в будущем.

    9. Регион, телефон и адрес

    Если ваш сайт относится к определенному региону, а у вас реальная организация, у которой есть адрес и телефон, то обязательно укажите эти данные. Для Яндекса все это указывается в «Географии сайта» -> Регион сайта | Адреса и организации.

    Для того чтобы контактные данные появлялись в гугловском SERP, используйте Google Адреса. Возможные варианты выдачи.

    10. Дополнительные данные о сайтах определенных тематик для Яндекса

    Проекты определенных тематик могут отправлять некоторые данные в базу отечественного поисковика для наиболее полного представления в выдаче. Это могут быть сайты с рецептами, рефератами, отзывами и так далее. Например, организации, связанные с такси могут иметь подобные сниппеты.

    Узнать, какие данные и в каком виде отправлять, можно в Яндекс.Вебмастере в разделе «Содержимое сайта».

    11. Турбо-страницы и AMP

    Выделиться в Серпе поможет внедрение Турбо-страниц (в Яндексе) или AMP (в Google). По ссылкам есть соответствующие посты в блоге . Можете ознакомиться.

    12. Товары и цены — YML-файл для Яндекса

    В Яндекс.Вебмастере можно закачать файл в специальном формате YML, который поможет улучшить представление вашего интернет-магазина в результатах поиска (соответственно, только в Яндексе).

    Все эти пункты помогут представить ваш проект в поисковой выдаче наиболее полно и красочно. В связи с этим увеличится CTR из серпа и, соответственно, посещаемость ресурса. Какие вы еще знаете способы и методы, благодаря которым можно влиять на выдачу. Как всегда рад отзывам и мыслям в комментариях .

    Google повышает сайты с HTTPS в выдаче

    Google начнёт использовать HTTPS в качестве фактора положения сайта в своей поисковой выдаче — этот шаг должен побудить измениться веб-разработчиков, которые не спешили с повышенными мерами безопасности или которые сомневались, насколько это важно для их сайта, пишет TechCrunch.

    Поддержка HTTPS не будет иметь такого же веса, как например качество контента, и в первое время новый критерий будет затрагивать не более 1 % всех глобальных запросов — таким образом Google даёт веб-мастерам время на переход на HTTPS. Однако со временем эффект шифрования на поисковую выдачу будет усиливаться, по мере того как компания уделяет всё большее значение безопасности сайтов.

    Google также обещает опубликовать серию статей об эффективном применении TLS (HTTPS также известен как HTTP над TLS или Transport Layer Security), так что разработчики сайтов смогут лучше понять, что они должны сделать для того, чтобы реализовать технологию, и каких ошибок можно избежать. Эти советы будут включать такие вопросы, как какой тип сертификата необходим, как использовать относительные URL-адреса для ресурсов на том же защищённом домене, передовой опыт по индексации сайтов и многое другое.

    Кроме того, Google советует веб-разработчикам проверить свои сайты с HTTPS с помощью инструмента Qualys Lab. В случае возникновения вопросов компания предлагает обращаться в свой Справочный форум для веб-мастеров, где её сотрудники уже участвуют в активных дискуссиях с сообществом.

    Объявление привлекло много откликов от разработчиков сайтов и участников SEO-отрасли — например, пост в блоге Google набрал больше 1000 комментариев. По большей части, сообщество, кажется, поддерживает нововведение или по крайней мере признаёт, что они ожидали чего-то подобного и не удивлены.

    Сам Google в последние месяцы предпринимал шаги, чтобы лучше защитить ​​собственный трафик, в том числе включив шифрование трафика между своими серверами. Gmail также теперь всегда использует зашифрованное HTTPS-соединение, что защищает письма от перехвата на пути между компьютером пользователя и серверами Google. HTTPS и шифрование сайтов существуют уже многие годы, но, видимо, последние разоблачения о государственных масштабах слежки за пользователями наконец-то подталкивают сообщество к повышенному вниманию к своей безопасности.

    Всё, что надо знать о органическом CTR в Google в 2020 году

    Брайан Дин проанализировал 5 миллионов результатов поиска в Google, чтобы лучше понимать от чего зависит частота кликов.

    Проанализированы данные CTR по:

    • 874 929 страницам
    • 5 079 491 поисковым запросам.

    Затем рассмотрены как акторы влияют на органический CTR:

    • длина тега title,
    • настроение заголовка и meta description

    Благодаря данным, предоставленным ClickFlow, Брайан смог получить данные CTR из нескольких учётных записей Google Search Console.

    Результаты:

    1. Страница, находящаяся на первом месте в результатах обычного поиска Google, имеет средний CTR 31,7%.

    2. Страница на первом месте имеет в 10 раз больше шансов получить клик по сравнению со страницей на 10 месте.

    3. Органический CTR для позиций 7-10 практически одинаков. Поэтому, если вы находитесь внизу первой страницы и поднялись не несколько позиций вверх, то не стоит рассчитывать на обязательное увеличение органического трафика.

    4. В среднем, продвижение на одну позицию в результатах поиска увеличит количество кликов на 30,8%. Однако, это зависит от того, откуда вы движетесь и куда. Переход с 3 места на 2, обычно приводит к значительному увеличению CTR. Однако, переход от 10 места к 9 не оказывает почти никакого влияния.

    5. Теги title, содержащие в себе вопрос, имеют CTR на 14,1% выше, чем страницы, у которых нет вопроса в заголовке.

    6. Теги title длиной от 15 до 40 символов имеют самый высокий CTR. Согласно данным, страницы с длиной тега заголовка от 15 до 40 символов имеют CTR на 8,6% выше по сравнению с теми, которые находятся вне этого диапазона.

    7. URL-адреса, содержащие ключевые слова, имеют показатель кликов на 45% выше по сравнению с URL-адресами, которые не содержат ключевых слов.

    8. Добавление «Мощных эпитетов» [в оригинале «Power Words »] в тег title может снизить ваш CTR. Тайтлы с Мощными эпитетами имели CTR на 13,9% ниже по сравнению с названиями, которые их не содержали.

    9. Эмоциональные title могут улучшить ваш CTR. Заголовки с положительным или отрицательным настроением, улучшают CTR примерно на 7%.

    10. Написание мета-описаний для ваших страниц может привести к повышению CTR. Страницы с мета-описанием получают на 5,8% больше кликов, чем без него.

    Ниже представлена подробная информация по исследованию.

    Страница на первом месте в выдаче Google получает 31,7% всех кликов

    Первоначальная цель исследования состояла в том, чтобы установить контрольные показатели CTR.

    5 миллионов результатов, обнаружено, что страница на первом месте имеет самый высокий CTR (на данный момент).

    Резкое снижение CTR, начиная со 2-й страницы результатов:

    Только 0,78% пользователей кликнули на 2 страницу.

    Эта тенденция CTR согласуется с другими исследованиями в отрасли CTR, например, из Advanced Web Ranking.

    Поскольку CTR, начиная со 2-й страницы, чрезвычайно низок, Брайан сосредоточился на результатах первой страницы. Также были исключены запросы с аномально высоким CTR, которые могут исказить результаты (например, брендовые запросы).

    И после того, как были проанализированы только результаты первой страницы с этим подмножеством данных, получено, что результат на первом месте в Google имеет CTR 31,7%.

    Вот полная разбивка CTR для первой страницы Google:

    Топ-пост этого месяца:  Изучаем TypeScript с нуля отличия от JavaScript и взаимодействие с ним

    Согласно недавнему опросу Moz, многие пользователи Google инстинктивно нажимают на первый результат в Google. Это, вероятно, объясняет, почему результат №2, который всего на несколько пикселей ниже первого места, имеет такой большой спад CTR.

    Вывод: результат №1 в Google получает 31,7% всех кликов.

    ТОП3 органических результата получают 75% кликов

    Это может быть связано с тем, что для результатов выдачи без рекламы или SERP-функций, результат №3 часто не требует дополнительного скролла вниз.

    Фактически, обнаружено, что топ-3 результатов поиска Google получают 75,1% всех кликов.

    Вывод: наши данные показывают, что «ранжирование на первой странице» не может быть достойной целью SEO. Вместо этого, лучше сфокусироваться на попадании на первую позиции (или, по крайней мере, в ТОП3).

    Перемещение на одну позицию увеличивает CTR на 30,8%

    Обнаружено, что при прочих равных условиях продвижение на одну позицию в Google увеличивает CTR на 30,8%.

    Однако, это повышение CTR распределяется неравномерно. Влияние CTR при перемещении вверх в поисковой выдаче сильно варьируется в зависимости от позиции.

    Например, переход с позиции №9 на №8 приведёт к увеличению числа кликов на 5%. Однако, переход от №6 к №5 приведёт к увеличению количества кликов на 53,2%.

    Вывод: перемещение на одну позицию в Google увеличит ваш относительный CTR в среднем на 30,8%.

    Большинство сайтов получают 8,1 кликов за запрос

    Для всех запросов, представленных в консоли поиска Google, команда Дина посмотрела, сколько из них привели к кликам.

    Во-первых, обнаружено, что большинство запросов, по которым сайт ранжируется в Google, получают очень мало показов.

    Это говорит о том, что большинство ключевых слов, по которым сайт ранжируется – это длинные хвосты с малой частотностью. Или что сайт не имеет высокого рейтинга по этим запросам. Или и то и другое вместе.

    И, вероятно, из-за небольшого числа показов большинство запросов приводит к небольшому количеству кликов (8,1 на каждый запрос).

    Вывод: «Ранжирование по ключевым словам X» не может быть ценной метрикой SEO. Большинство страниц ранжируются по ключевым словам с небольшой частотностью. Вместо этого, большинство показов и кликов, как правило, происходят из относительно небольшого числа запросов.

    Вопросительные title имеют более высокий средний CTR

    Сравнили средний органический CTR между заголовками, которые содержали вопрос и заголовками без него (вопросительным title – это тот, который использует «как, почему, что, кто» или title со знаком вопроса).

    Обнаружено, что вопросительные заголовки имели на 14,1% больше кликов по сравнению с обычными.

    Вот полный CTR по 10 лучшим результатам.

    Этот вывод соотносится с заголовком CTR исследования, опубликованного в журнале Social Influence.

    Вопросы могут повысить CTR, ведь когда кто-то что-то ищет в Google, он, по сути, ищет ответ на вопрос. А использование вопросительного заголовка может подтвердить читателю, что ваш результат содержит ответ на их вопрос.

    Вывод: теги заголовков на основе вопросов имеют CTR на 14,1% выше, чем заголовки без вопросов.

    Теги title длиной от 15 до 40 символов имеют более высокий CTR

    Какова идеальная длина тега title? Вы должны делать свои заголовки емкими и только по существу? Или использовать длинные заголовки, которые содержат много информации о вашем контенте? Нужно найти золотую середину.

    В частности, обнаружено, что title от 15 до 40 символов имеет самый высокий органический CTR.

    Несмотря на то, что SEO-теги с длинными заголовками (более длинные заголовки = больше ключевых слов) могут быть полезны для SEO, это может быть частично компенсировано более низким органическим CTR.

    Вывод: теги title длиной от 15 до 40 символов имеют лучший органический CTR.

    URL с ключевыми словами коррелируют с более высоким CTR

    Оказывают ли положительно влияние на CTR ключевые слова в URL?Например, возьмите кого-нибудь, кто ищет «поездки на выходные». Будет ли такой URL, как domen.com/weekend-trips, иметь более высокий CTR, чем domen.com /travel-page?

    Чтобы выполнить этот анализ, были рассмотрены поисковые запросы и их с URL-адреса, далее предоставлени индекс сходства в диапазоне от 0% до 100%.

    Значение 0% означает, что два слова совсем не похожи, а значение 100% означает идеальное совпадение. Были проигнорированы все знаки препинания и спецсимволы. Учитывались слокнения и спряжения слова (“книга” и “книг”, “торт” и “торты” и т.д.).

    Обнаружена сильная корреляция между ключевыми словами в URL и органическим CTR.

    Несмотря на то, что идеальное совпадение запроса и ключевого слова привело к наивысшему CTR, данные показывают, что URL, который частично соответствует запросу, также может привести к значительному увеличению CTR.

    Руководство по поисковой оптимизации Google напоминает веб-мастерам, что URL-адрес страницы отображается в результатах поиска.

    Google: Систематизируйте свой контент так, чтобы структура каталогов позволяла пользователям легко ориентироваться на сайте, а URL отражали содержание страниц.

    Теория, лежащая в основе этого, заключается в том, что пользователи поисковых систем используют URL-адрес страницы, чтобы определить наилучшее соответствие для своего запроса.

    Вывод: увеличение CTR на 45% для страниц с идеальным соответствием запроса по сравнению с несоответствием.

    «Мощные эпитеты» могут негативно повлиять на частоту кликов

    «Мощные эпитеты» – это конкретные слова и фразы, для выделения заголовкам от конкурентов.

    Например, такие термины, как:

    • Секретный
    • Мощный
    • Максимальный
    • Идеальный
    • Отличный
    • Лучший
    • Удивительный

    Наши данные показали, что эпитеты снизили CTR на 13,9%.

    Вывод: хотя эпитеты могут работать в социальных сетях, они могут повредить вашему органическому CTR.

    Эмоциональные title могут увеличить частоту кликов

    Данные показывают, что эмоциональные заголовки (заголовки с положительным или отрицательным настроением) имеют более высокий CTR по сравнению с эмоционально нейтральными заголовками.

    Эмоциональные заголовки имеют абсолютный CTR на 7,3% выше по сравнению с неэмоциональными заголовками.

    Негативные и позитивные заголовки, как правило, работают одинаково хорошо. Заголовки с положительным настроением имеют CTR на 7,4% выше, в то время как заголовки с отрицательным настроением имеют CTR на 7,2% выше.

    Для этого анализа каждое слово в заголовке исследовалось на «полярность текста». Каждому заголовку присваивалась оценка настроения.

    В нескольких исследованиях, в том числе в BuzzSumo, обнаружена связь между эмоциональными заголовками и заинтересованностью пользователя.

    По крайней мере, согласно данным Брайана Дина, эмоциональные заголовки могут привести к повышению CTR в органической выдаче.

    Интересно то, что, хотя мощные эпитеты наносит вред CTR, эмоциональные заголовки помогают CTR.

    Это может быть связано с тем, что настроение является более тонкой вещью, чем наличие или отсутствие отдельного эпитета. Другими словами, можно написать эмоционально заряженный заголовок без использования эпитетов. И названия, которые ловко нажимают на эмоциональные кнопки, а не выглядят как приманка для кликов, могут выделиться и получить больше кликов.

    Вывод: у заголовков с отрицательным или положительным настроением более высокий органический CTR по сравнению с нейтральными заголовками.

    Страницы с мета-описанием имеют более высокий средний CTR по сравнению со страницами без него

    Несмотря на то, что описания не влияют непосредственно на SEO, Google по-прежнему рекомендует писать уникальное мета-описание для каждой страницы вашего сайта.

    По полученным данным страницы с мета-описаниями имели на 5,8% лучший CTR по сравнению со страницами без них.

    Этот вывод не должен удивлять кого-либо с опытом в SEO. Не смотря на то, что Google не всегда использует мета-описания, которые вы пишете для них, ваше мета-описание может довольно часто появляться в поисковой выдаче.

    Без мета-описания, к которому можно обратиться, Google должен извлечь фрагменты с вашей страницы, чтобы заполнить это пространство в сниппете.

    И текст, который Google извлекает из вашей страницы, почти всегда будет менее заманчивым, чем хорошо написанное описание.

    Вывод: страницы с мета-описанием имели на 5,8% больше CTR по сравнению со страницами без описания.

    Продвижение сайтов в мобильной выдаче Google

    Google анонсировал сразу два существенных изменения в алгоритме ранжирования сайтов в мобильной выдаче. Начиная с 27 февраля мобильные приложения, участвующие в App Indexing, начали ранжироваться выше у зарегистрированных пользователей, а уже с 21 апреля 2015 года поисковик запустит фактор дружественности мобильным устройствам.

    Начиная с конца февраля, мобильные приложения, которые индексируются поисковиком через App Indexing, начали лучше ранжироваться в результатах поисковой выдачи мобильных устройств у зарегистрированных пользователей, установивших приложения на своих устройствах Android.

    App Indexing ­­позволяет поисковику индексировать контент приложения, тем самым связывая страницы веб-сайта с контентом приложения. Проще говоря, теперь при поиске со смартфона поисковик предложит пользователю в первую очередь ссылку на приложение, при условии, что оно установлено на его устройстве. Это не только дополнительное удобство для пользователя (так как контент приложений адаптирован под мобильные устройства), но и возможность размещать контент из проиндексированных приложений на более заметном месте в категории. Для этого необходимо произвести ряд настроек.

    Дружественные к мобильным устройствам сайты получат привилегии

    Итак, что же изменится в мобильной выдаче Google 21 апреля? Мобильные факторы ранжирования Google начнут помечать в выдаче сайты как дружественные к мобильным устройствам, а также будут определять, какую позицию должен занимать ресурс. Эти изменения окажут существенное влияние на результаты мобильного поиска на всех языках, и, по заверениям представителей Google, обеспечат релевантную и качественную выдачу пользователям.

    Уже несколько лет мы наблюдаем существенный рост мобильной аудитории интернета во всем мире. В январе 2015 года, по данным TNS , Google обогнал Яндекс и другие поисковые системы Рунета по популярности среди мобильных пользователей России, его аудитория составила 13,08 млн мобильных пользователей в месяц, аудитория Яндекса в аналогичный период — 11,3 млн мобильных пользователей, у Facebook — 10,1 млн мобильных пользователей в месяц. Google понимает, что в будущем рост прибыли компании кроется именно в мобильных пользователях. По статистике самого поисковика 39% пользователей мобильных устройств совершают с них покупку, 55% ищут товары или услуги с помощью своих смартфонов с целью совершения дальнейшей покупки.

    Согласно данным PayPal и Ipsos в 48% случаев российские потребители пользуются смартфонами для сбора информации о товаре, 32% читают на них отзывы, а 25% сравнивают цены. На основе собранных данных специалисты прогнозируют рост рынка мобильной коммерции на 42% в период с 2013 по 2020 год.

    Google довольно долго экспериментировал с мобильном фактором ранжирования. Кроме того, еще в январе поисковик оповестил веб-мастеров сайтов, не оптимизированных под мобильные устройства, что их ресурсы не будут высоко ранжироваться в мобильной выдаче.

    Теперь же у владельцев сайтов есть несколько месяцев, чтобы сделать свои ресурсы дружественными к мобильным устройствам. Проверить, насколько мобильный сайт соответствует требованиям поисковика, можно при помощи отчета о мобильном юзабилити сайта в Google Webmaster Tools, а также инструмента проверки дружественности сайта к мобильным устройствам — Mobile-Friendly Test.

    Поисковик разработал специальное руководство Google Developers, в котором владельцам ресурсов могут получить рекомендации по созданию сайтов, оптимизированных под мобильные устройства.

    Google рекомендует

    Улучшать мобильное юзабилити

    Google считает, что основополагающий момент —это удобство пользователя, особенно когда речь идет о просмотре сайта на небольшом экране мобильного устройства. В связи с чем, он дает следующие рекомендации:

    1. Не используйте дополнительные окна в мобильной версии сайта. Это касается окон JavaScript , которые трудно закрыть, а также плавающих объявлений и рекламы.
    2. Оптимизируйте сайт для различных устройств. Не используйте плагины и видеоплееры, которые могут отсутствовать на мобильном устройстве пользователя (например, Adobe Flash Player). Google советует предоставлять пользователям сайт, оптимизированный под устройство, с которого совершается вход, то есть для смартфонов предпочтительна мобильная версия сайта, а для планшетов — оптимизированная версия для настольных компьютеров или сайт для планшетов. При этом важно оставлять пользователю выбор, предоставляя ему возможность переключиться с мобильной версии на версию для ПК.
    3. Облегчайте мобильные страницы, ускоряя тем самым их загрузку. Пользователь не должен тратить слишком много времени на загрузку и мобильный трафик.

    Выделяться в мобильном поиске

    Оптимизируйте сайт под требования поисковых систем, а также сделайте его удобнее для пользователей, которые приходят из поиска. Разрешите индексацию ресурсов ( CSS , JavaScript и т. д.) в robots.txt . Google рекомендует оптимизировать ресурс под поисковые системы в зависимости от способа его реализации:

    • В случае сайта с адаптивным дизайном обязательно включите запрос CSS @media.
    • Если есть отдельная мобильная версия сайта, добавьте атрибуты rel=alternate media и rel=canonical , а также HTTP-заголовок Vary: User-Agent , так поисковый робот Google сможет сразу указывать мобильный URL в результатах поиска.
    • Для сайтов с динамическим показом необходимо добавить HTTP-заголовок Vary: User-Agent .

    Делать сайт привлекательным для пользователей

    Придумывайте новые способы увлечь пользователя, создавайте интересное мобильное приложение для вашего сайта (и не забудьте добавить его на индексацию поисковыми роботами Google), используйте интерактивный дизайн, задействуйте жесты (перелистывание, встряхивание и т.п.).

    Последнюю рекомендацию от Google хочется дополнить советами Якоба Нильсена, известного консультанта по юзабилити и веб-дизайну:

    • Используйте отзывчивый дизайн, он позволит ресурсу корректно отражаться на экранах различных размеров.
    • Не забывайте про корректное масштабирование шрифтов под разные устройства. Контент сайта должен хорошо читаться с разных устройств.
    • Увеличьте размер активных элементов на странице мобильных сайтов. Попасть пальцем в маленькие или тесно сгруппированные ссылки и кнопки гораздо сложнее, чем указателем мыши. Поэтому в мобильных устройствах активные элементы должны быть довольно крупными, чтобы пользователь без затруднения мог выбрать необходимый ему элемент.
    • Масштабируйте контент для области просмотра. Ведь это крайне неудобно, если приходится уменьшать масштаб или использовать горизонтальную прокрутку.

    Мы рекомендуем не пренебрегать мобильной аудиторией и активно работать над оптимизацией сайта под мобильные устройства наравне с поисковой оптимизацией сайта. Одновременное продвижение сайта в большом и мобильном поиске позволит существенно увеличить общий трафик и количество клиентов.

    Как раскрутить сайт — Кодекс OlegON. Советы по оптимизации сайта в Google

    1 2 >

    Я потратил значительное количество времени, разбирая заявки на форуме по индексированию и ранжированию Google. В целом общая причина их появления — один и тот же вопрос: “сайт пропал или понизился в выдаче”. Надо ответить, что, как и сами вопросы, так и ответы достаточно типовые, поэтому я решил соединить их в единый документ, некоторую инструкцию по разбору подобных ситуаций, а так же для ответов на некоторые другие вопросы. Нижеизложенное — мое личное мнение, сформированное в ходе собственных исследований, чтения различных материалов и справки Google. Для удобства все абзацы имеют сквозную нумерацию.

    1. Итак, первое, что Вы должны себе уяснить — результаты выдачи меняются, причем постоянно. Если вы были в первых рядах (топе) поисковой выдачи, то никто не гарантирует защиты от того, что изменится алгоритм ранжирования или появится сайт-конкурент, произойдут какие-то другие события, что Вас утопит. Но такие события в большей своей части сопровождаются плавным переходом трафика, т.е. он будет постепенно исчезать по мере перехода пользователей от вас на другой сайт. Бороться с этим можно только увеличением интереса пользователей к сайту, его удобством и общей популярностью. Точную причину колебания позиций сайта в выдаче не назовет никто, в том числе работники Google. Выдача формируется массой алгоритмов, учитывается масса параметров. Соединить это в целое, учесть все параметры ранжирования и оценки Вашего сайта и всех сайтов, которые Вас обошли, нереально. Выход только один — работать над качеством сайта, его удобством (в том числе мобильной версии) и популярностью.

    2. Особо выделяются вопросы вида “я вчера сделал сайт, а гугл его еще не видит”. Или “у меня есть сайт и с ним что-то не так”. Обратите внимание, что гугл — гигантский поисковик, содержащий в себе актуальные данные о миллиардах страниц. Для того, чтобы сайт был просканирован, необходимо зарегистрировать его в Search Console (https://www.google.com/webmasters/tools/home?hl=ru, SC, бывшая WMT, Webmaster tools), подготовить карту сайта, отправить ее в соответствующем разделе SC, после чего ждать. Сайт будет просканирован, проиндексирован и подвергнут ранжированию. Процедура занимает в лучшем случае не один день, т.е. до двух-трех месяцев можно не волноваться. Терпеливо ждите и контролируйте ошибки сканирования в SC. Обратил внимание на общую статистику, что молодые сайты сначала попадают на “испытательный срок”, а потом, даже если не были подвергнуты каким-либо изменениям, падают в выдаче. Это связано с тем, что Google не сразу использует все метрики по отношению к новому сайту, дает ему время поплавать по основным параметрам, после чего механизм ранжирования работает на полную.

    3. Но, часто бывает, что график количества посетителей ныряет “в пол” и это не на день-два (что может быть случайностью), а более. При этом, в первую очередь, необходимо посмотреть наличие ручных мер по ссылке: ↴ . Меры могут быть самого различного рода, как связанные с качеством содержания, так и с агрессивным спамом и прочими неуспешными попытками раскрутки. Вебмастера, поддерживающие сайты, как-то связанные с распространением авторского содержания, обязательно должны проверить свой сайт на предмет предъявленных претензий в Lumen (Lumen Database, база DMCA, бывшая Chilling Effects)
    В случае предъявления достаточного количества жалоб, домен может быть заблокирован в Google навсегда и безвозвратно. Для того, чтобы жалобы убрать, необходимо уговорить сделать это тех, кто их направил. Сами понимаете, какое это трудное дело. Встречное уведомление DMCA можно подать здесь: ↴ . Интересная и печальная особенность в том, что Google не проверяет жалобы, особенно по Рунету, при ее получении просто банит сайт и ждет развития событий. С учетом территориальных особенностей и отсутствия прямых контактов ждать отзыва жалобы можно вечность.

    4. Обратите внимание, что поисковик не является экспертом по авторскому праву и лишь отражает содержимое, доступное пользователям в интернете. Т.е. не отвечает за хранение и доступность ресурсов для других пользователей. Если Вас огорчает, что кто-то разместил копию Вашего сайта или другое авторское содержимое в интернете, то претензию следует предъявлять в первую очередь хостингу и по контактам, опубликованным на сайте, а не поисковику. Однако, Google предлагает ряд вариантов отправки жалобы: ↴ , более подробную справку можно прочитать здесь: http://www.google.com/transparencyreport/removals/copyright/, а список своих жалоб можно посмотреть тут ↴ Более подробно, как с этим бороться, можно почитать в статье https://olegon.ru/showthread.php?t=28138

    5. При возникновении каких-то неясностей, как в индексировании, так и в ранжировании сайта, рекомендуется обратить внимание на ошибки сканирования в соответствующем разделе SC. Ошибки необходимо разбирать самостоятельно или задавая конкретные вопросы с указанием конкретной ошибки на форуме.
    Нестабильная работа сайта может сказаться ранжировании его в результатах поиска. Никому не нужны периодически и странно работающие сайты. Обратите внимание, что ошибки подключения обозначают доступность сайта в принципе, т.е. возможность подключиться к веб-серверу. Перечисляемые ошибки с цифровым кодом — причины, по которым поисковик не может получить требуемые ему страницы, уже после успешного разрешения имени сайта в службе DNS и подключения. Необходимо разделять эти ошибки, поскольку отвечать за них могут разные поставщики. Во всплывающем окне, при нажатии на сообщение об ошибке, Вы можете увидеть ссылающиеся на эту страницу свои ресурсы, утверждающие о ее существовании.

    6. Предполагается, что существует sitemap, т.е. карта сайта (я бы назвал это обязательным атрибутом сайта, которого интересуют позиции в поисковике). Обратите внимание на то, что количество отправленных и количество проиндексированных страниц должно совпадать или незначительно отличаться. Если количество страниц в индексе минимальное, то сайт понижается по проблеме индексирования. О ней есть смысл говорить, если нет ошибок сканирования, о которых я писал выше. Неправильная генерация карты сайта (sitemap) приводит к тому, что сайт либо неполностью индексируется, либо не индексируется вообще. Верх изощренности — дать sitemap на закрытые в robots.txt страницы. Обратите внимание, что файлом sitemap могут быть RSS или Atom фиды, а так же XML-файлы определенного формата, он не может быть текстовой или HTML-страницей. Файл sitemap имеет лимиты на размер и количество включенных в него ссылок, поэтому лучше для больших ресурсов создавать индексную карту сайта, т.е. sitemap со ссылками на другие sitemap. После создания файла sitemap ссылку на него необходимо поместить в директиву Sitemap файла robots.txt, а так же разместить в SC. Для ускорения индексирования собственного сайта я автоматизировал информирование Google о появлении новой карты запросом следующего URL: http://www.google.com/webmasters/sitemaps/ping?sitemap=XXX, где XXX — путь к sitemap в формате urlencode. Авторизация не требуется.
    Не раз попадались спам-плагины для WordPress, которые не только создавали карту сайта, но и ставили ссылки на сайты их авторов. Будьте внимательны.

    Разберем ряд наиболее частых проблем сканирования и индексирования.

    7. Вы недавно кардинально меняли дизайн или содержимое сайта. Закрывали что-то в robots.txt или удаляли страницы в соответствующем разделе SC. Возможно, что изменяли домен или перемещали с сайта. Как правило, это сопровождается букетом ошибок 404 при повторном обходе роботом сайта, но если менялось содержимое сайта, то ошибок не будет, однако сайт в выдаче все равно понизится. Любые серьезные изменения сайта ведут к потере позиций. Выплывет ли сайт обратно и как быстро зависит от того, насколько успешными были эти изменения. Не спешите паниковать. Могут пройти недели до возвращения позиций. Структуру сайта лучше без веских причин не менять. Убедитесь, что не испортили robots.txt и не удалили что-то лишнее (инструмент удаления страниц лучше не использовать без четкого понимания того, что Вы делаете, т.е. в большинстве случаев не надо использовать совсем). Имейте ввиду, что в разделе «Файлы sitemap» перечисляются отправленные и индексируемые страницы именно этого sitemap, при смене содержимого карты сайта или ее имени, некоторые вебмастера впадают в панику, видя крайне малое количество страниц в индексе. Но это страницы новой, только что загруженной карты. Даже если URL совпадают с таковыми в предыдущей карты, они не увеличат счетчик, пока бот их не проверит. Общее количество страниц в индексе в данном случае надо смотреть в «Статусе индексирования», оператор site: поиска точной картины так же не дает.

    8. Изменение каких-то настроек привело к тому, что в шапке страниц появились meta noindex. Такое иногда встречается при недостаточно вдумчивом изменении настроек CMS или хостинга. Например, широко распространенные WordPress и Blogger содержат в себе настройки скрытия информации от поисковиков. Достаточно одной неудачно поставленной галочки, чтобы потерять посетителей из поисковиков вообще. К сожалению, в практике попадались случаи, когда подобные заголовки добавляли сотрудники хостинга. Ошибочно или нарочно — история умалчивает.

    9. Сайт заражен вирусом. Как и большинство других поисковых систем, Google пытается оградить пользователей от вирусов и предотвратить развитие эпидемии. Как правило, в SC, в разделе по безопасности о заражении сайта сообщается. Но при наличии каких-то подозрений и для профилактики, рекомендую проверять пропадающие (не только главную) страницы на вирусы здесь: ↴ . Обратите внимание, что надо переключить проверку на проверку URL, а не загружать какие-то файлы. Можно еще подставить сюда свой домен, чтобы посмотреть, что думает о вредоносности Google.
    На сайт так же может быть внедрен какой-то сторонний код, перенаправляющий пользователей (всех или часть) на другие ресурсы. Очень часто этим страдают социальные кнопки с других ресурсов, загружаемые рекламные баннеры и т.п. Настоятельно рекомендую не использовать на своем сайте код, загружаемый с других источников.
    Многие жалуются на то, что Google не сообщает о том, какие именно страницы или файлы заражены вирусом. Однако Google — поисковик, а не антивирус. Если он нашел две страницы с вирусом, это не значит, что на сайте их только две. Вебмастеру дается сигнал о том, что его сайт заражен. А в качестве подтверждения выполнения работ по удалению вируса будет принято его полное отсутствие на ресурсе. Существует достаточно большое количество антивирусов, включая тот же Manul . Дерзайте, ищите.

    10. На хостинге ограничения доступа, например, региональное ограничение или ограничения по UserAgent. Категорически не рекомендуется использовать подобное для веб-сайтов, поскольку ложные срабатывания (а стандартов и официальной базы для таких ограничений не существует) приведут к видимости нестабильной работы хостинга. В эту же категорию можно отнести и, собственно, дествительную нестабильность хостинга, DNS-сервера или каналов связи. Для проверки можно воспользоваться одним из следующих сервисов. Я предпочитаю ↴ , можно использовать ↴ или http://www.site24x7.com/check-website-availability.html Не забывайте, что различные бесплатные хостинги или хостинги с дешевым тарифом могут молча отказывать в части запросов робота, создающего дополнительную нагрузку. Не рекомендую использовать директиву Crawl-delay, которой Вы расписываетесь в некачественности хостинга.

    11. Избыточное наполнение robots.txt. Начинающие вебмастера впечатляются статьями, где сказано, что все ненужное необходимо закрыть в robots.txt и начинают закрывать вообще все, кроме текста на строго определенных страницах. Это, мягко говоря, неверно. Во-первых, существует рекомендация Google не закрывать скрипты, CSS и прочее, что может помешать боту увидеть сайт так же, как видит его пользователь. Во-вторых, очень большое количество ошибок связано с тем, что закрывая одно, пользователь закрывает другое тоже. Безусловно, можно и нужно проверять доступность страницы и ее элементов здесь: ↴ , но вряд ли Вы сможете все страницы своего ресурса проверить через этот инструмент после каждого изменения. Как вариант ошибки — путаница с последовательностью Allow и Disallow. Моя личная рекомендация — закрывать в robots.txt только очевидно ненужные боту вещи, вроде формы регистрации, страницы перенаправления ссылок и т.п., а от дубликатов избавляться с помощью canonical. Обратите внимание, что то, что Вы поправили robots.txt совсем не обозначает, что Google-bot его сразу перечитает. Для ускорения этого процесса достаточно посмотреть на robots.txt, как Google-bot в соответствующем разделе.

    Далее рассмотрю ряд параметров, влияющих на ранжирование, как страниц, так и всего сайта в целом.

    12. Неестественная ссылочная масса, входящие ссылки. Многие вебмастера по старинке полагают, что прогон по каталогам или закупка ссылок на биржах приведет к неизбежному взлету сайта в поисковой выдаче. На самом деле все совсем не так радужно. С одной стороны, сайт без ссылок для поисковика авторитетным не будет. С другой — ссылки с биржи или других мест, где они покупаются, сайт не только не будут повышать, а будут понижать, вплоть до ручных мер. Оценить ссылочный профиль можно здесь: ↴ или на ↴ , которым я пользуюсь для проверки ссылок “на вскидку”. Для более подробного анализа существуют полубесплатные и платные анализаторы, например, Ahrefs, SEMRush и.т.п. Все они разной степени точности и качества, многие вебмастера ботов этих анализаторов банят, поэтому рекомендую использовать разные и в комбинациях. Известен термин “ссылочный взрыв”, когда появление множества однотипных ссылок с одинаковым анкором не только не поднимает, а топит сайт. Общий вывод этого раздела: если Вы покупаете ссылки, то рано или поздно это плохо кончится. В лучшем случае Вам после этого поможет кропотливое ручное отклонение ссылок здесь: ↴ Если Вы не только не пользуетесь покупкой ссылок, но и категорически против подобных технологий, то можете пожаловаться на замеченные нарушения здесь: ↴

    Топ-пост этого месяца:  Сжатие JPEG с помощью Guetzli

    13. После того, как я достаточно запугал Вас влиянием плохих ссылок, подчеркну, что отсутствие ссылок на сайт — тоже повод для его плохого продвижения в результатах поиска. По логике создателей Google пользователи стремятся поделиться интересным сайтом, поэтому ссылок на хороший, интересный сайт должно быть много. Ссылки должны появляться сообразно возрасту сайта и, крайне желательно, на тематических площадках, т.е. совпадающих по тематике с вашим сайтом.

    14. Сильное дублирование информации на разных страницах так же сказывается на отображении сайта в результатах поиска. Особо удачливым веб-мастерам удается добиться по этому пункту и ручных мер. Тут уже можно предложить творчески переработать сайт, соединив информацию на наиболее популярных страницах и поработать над внедрением canonical. С помощью canonical рекомендуется бороться и с присутствием в URL различных служебных параметров, а так же с появлением непонятно откуда взявшихся URL с различными суффиксами, игнорируемыми вашим сайтом. Не рекомендуется отдавать поисковику результаты поиска по сайту в различных их вариантах. Если Вы жалуетесь, что часть страниц сайта не индексируется, то попробуйте найти неиндексируемую страницу, введите ее заголовок в поиск Google по сайту (с суффиксом site:ваш сайт), результатом будут страницы из-за которых не индексируется та, которую Вы нашли сначала.

    15. Отсутствие мобильной версии сайта так же сказывается и еще больше будет сказываться на выдаче в ближайшее время. Google все сильнее пытается разделить пользователей компьютеров и мобильных устройств. С некоторой точки зрения убрать от человека с мобильником сайт, который приходится скроллить в четыре стороны на маленьком экране — правильно. А количество таких пользователей становится все больше. Оценивать такой шаг в свете наличия других проблем поиска не буду, но есть инструмент ↴ и игнорировать его нельзя. Обратите внимание, что не следует делать две версии сайта, основной и для мобильных устройств. Слишком велика вероятность промаха, если редирект происходит по UserAgent, например. И в целом велик шанс получить кучу дублей. Изучите тему адаптивного дизайна, т.е. изменения верстки в зависимости от характеристик устройства. Смешно, но достатовно часто для удовлетворения требованиям адаптивного дизайна достаточно добавить в заголовок.

    16. Расположение больших картинок в верхней части страницы. Долгое время ломал голову, что же не нравится поисковикам. Попадались и другие пострадавшие пользователи. А недостаток один общий — в верхней части сайта болталась какая-то лопатообразная картинка или, что во много раз хуже — баннер. За баннер можно и запрет поймать где-то в Adwords. Очень плохо ранжируется сайт с картинкой во весь экран, страница которого открывается дальше скроллингом.

    17. Обратите внимание, что медленный, тяжело открывающийся сайт, так же будет понижен в результатах поиска. Самая распространенная ошибка в данном случае — недостаток ресурсов хостинга, но часто можно исправить ситуацию и с помощью организации графики, т.е. сжатия картинок и приведения их размера в соответствие с показываемым. Общий инструмент, с которого можно начать: ↴ , обратите внимание, что этот же сервис предлагает автоматизировать решение части проблем, установив соответствующий модуль веб-сервера, более подробно можно почитать об этом здесь: ↴

    18. Синтаксические ошибки в HTML-коде вредят сайту, поскольку сайт начинает тормозить при отображении, выглядеть по разному в разных браузерах и т.п. Не стоит пренебрегать анализом страниц в валидаторах. Мне очень понравился ↴ , но можно воспользоваться общепризнанным ↴ . Еще неплохой инструмент для поиска ошибок: ↴ Обратите внимание, кодировка, отличная от UTF-8, сильно вредит ранжированию. Об этом, кстати, валидатор предупреждает.

    19. Переспам ссылками или ключевыми словами был актуален в начале столетия. Вебмастера убедились, что если набить страницу многократным повторением одного и того же словосочетания, да еще его поместить в

    или жирным выделить, то поисковики радостно выделяют этот сайт в случае поиска этих слов. Даже сейчас попадаются зубодробительные тексты, читать которые невозможно и основная цель которых — обмануть поискового бота, либо страницы, набитые рекламой во всеможных видах. Поисковики давно фильтруют подобное. То же относится и к гигантскому количеству ссылок на странице. Еще совсем недавно каждый второй вешал у себя облако тегов. Сейчас этого делать не следует, можно схлопотать переспам-фильтр. Не могу вспомнить, где именно попадалось правило, что суммарное количество ссылок на странице (не только внешних) не должно превышать сотню. Обратите внимание, что сайт может спамить ссылками не только по желанию веб-мастера, очень часто внедряется спам-код в шаблоны WordPress и подключаемые модули различных CMS. Одновременно лучше убедиться, что ваша CMS оснащена средствами для предотвращения размещения ссылок только что зарегистрированными пользователями. Будьте аккуратны.

    20. Игнорирование ошибок разметки структурированных данных чревато ровно тем же, что и игнорирование ошибок в принципе. Удивительно, но штатные шаблоны WordPress страдают этими ошибками прямо с момента установки. Лучше их все же поправить, воспользовавшись инструментом ↴ Подчеркну ответ на вопрос одного из пользователей, разметка нужна не только для мобильных устройств, а для всех сайтов в принципе.

    21. Неправильная проверка позиций сайта тоже часто сбивает с толку вебмастеров. Дело в том, что выдача зависит от того, из какого региона Вы делаете запрос, и какие запросы к поисковику делали ранее (персонализированный поиск). Поэтому, если Вы сели за чужую машину, то с высокой долей вероятности результаты поиска будут не такими, как за вашим компьютером, особенно, если сферы интересов владельцев учетных записей различаются.

    22. Текст картинками на сегодняшний день не индексируется поисковиками. Не забывайте об этом, когда будете удивляться, почему Ваш интернет-магазин проваливается в текстовом поиске. Как минимум — alt у картинок должен быть заполнен, а названия файлов картинок соответствовать их содержанию. Определитесь, какого типа поиск Вас интересует и продвигайте сайт в нем.

    23. Мнение о ЧПУ (ЧеловекоПонятные Урлы) таково, что не надо там кодировать русские слова именно на русском языке. Споры продолжаются на тему того, понимает ли Google транслит или нет, но русские буквы по стандартам подлежат перекодированию, а длинные URL в итоге неудобно передавать пользователям. Мое мнение — либо транслит, либо вообще сосредоточиться на более важных и полезных вещах. Если транслит, то не забудьте о еще одном важном нюансе — слова в URL надо разделять с помощью дефиса, а не знака подчеркивания, т.е. “slovo-i-slovo”, а не “slovo_i_slovo”.

    24. Куча дублей разных поддоменов, например, с URL с приставкой www и без нее указывают на один и тот же сайт. Это, в итоге, путает механизм ранжирования и оценки связей страниц и приводит к проваливанию сайта в результатах выдачи. Несколько раз попадался случай, когда хостинг принимал любые поддомены, перенаправляя на основной сайт, что приводит к разрастанию гигантского количества дублей и пессимизации сайта в целом. В этих случаях необходимо поступить, как если бы Вы находились посредине процедуры переезда с домена на домен. Выделяете все попавшие в индекс домены (счастье, если это всего лишь www и основной), выбираете тот домен, который Вы будете использовать (я рекомендую домен второго уровня, т.е. без www) и настраиваете редирект всех страниц с дополнительных доменов на соответствующие страницы выбранного. Подчеркну, что необходимо перенаправлять каждую страницу на соответствующую страницу, а не корень сайта. Не перенаправляйте robots.txt, это помешает пересканированию редиректов!

    25. Путаница с языками ясности в общую картину не добавляет. Ознакомьтесь с hreflang и случаями его использования. Не следует открывать для поиска страницы текста с машинным переводом.

    26. Частый вопрос “сколько времени потребуется боту, чтобы все исправить”. Общего ответа быть не может, поскольку все зависит от активности бота на вашем сайте до этого и того, насколько далеко зашло сканирование ошибочных страниц, если речь об их исправлении. Официально заявлен срок в 180 дней, например, на склейку доменов. Обещать что-то и называть какие-то точные сроки никто не будет, бессмысленное занятие при существующем наборе факторов, которые на это влияют. Если речь идет о снятии мер, принятых вручную, то это занимает несколько недель с момента отправки заявки на пересмотр. Обратите внимание, что сайты, к которым были применены ручные меры, редко возвращаются на те же позиции, что и раньше без кардинальных изменений в подходе к структуре и наполнению.

    27. Общее стремление угодить поисковой машине, а не пользователю, приводит к плачевному результату. Рано или поздно поисковик учтет Вашу хитрость, если она мешает пользователям сайта или поисковой системы. Обратите внимание на то, что Google ценит удобные сайты с уникальным и интересным текстом. Не следует ориентироваться на сиюминутную выгоду и разовый результат. Если Вы проводите день в периодическом обновлении каких-то пузомерок с надеждой, что вырастут какие-то виртуальные баллы, то КПД вашей работы близок к нулю. Регулярно отслеживайте ошибки в SC во всех разделах, просматривайте замечания к коду здесь: ↴ , продвигайте сайт в соцсетях Facebook и Google+, а так же везде, где есть соответствующая тематика. Избегайте спама вообще везде и внедрения в свой сайт страниц, способствующих его популярности, но не соответствующих тематике. Если привлечете большое количество пользователей, то и в результатах поиска будете подниматься. Никому не интересные страницы в поиске тоже будут тонуть.

    28. Когда Вы собираетесь пожаловаться на плохое ранжирование/индексирование сайта, начните с чтения всех вышеприведенных пунктов, после чего осознайте: а) Как сайт индексируется б) Есть ли ручные меры, принятые к сайту в настоящий момент (по имени сайта с www и без www) в) История снижения показателей посещаемости, после чего все произошло и насколько быстро г) Отправили ли Вы sitemap, как давно и не менялась ли его структура? д) Есть ли ошибки сканирования? е) Если какие-то страницы не в индексе, то как они выглядят в «Посмотреть, как GoogleBot»? ж) Нет ли в их коде noindex? з) Не закрыли ли Вы лишнее в robots.txt? к) Чем сайт выделяется среди других этой же тематики? л) Нет ли запросов на удаление страниц в соответствующем разделе (опять надо проверить сайт с www и без). м) По каким запросам ищете? н) Покупали или продавали ли ссылки? о) Используете ли скрипты внешней рекламы и чьи? Не надо писать свои выводы — обязательно покажите скриншоты соответствующих разделов по каждому пункту тому, кому Вы собираетесь жаловаться или предоставьте какую-то еще информацию, на основании которой можно сделать тот или иной вывод по пунктам. Ну и обязательно надо указать проблемные URL. И обязательно цитируйте пункты, по которым отвечаете, на память буквы пунктов никто не помнит, даже я сам, а листать туда-сюда некогда.

    29. Часто спрашивают, «я все сломал, но теперь исправил, как все пересканировать?«. Ответ очень простой — перепошлите sitemap, причем, желательно, с указанием более новых дат изменения страниц, исправьте выдачу If-Modified-Since, если изменения касались страниц, посмотрите на robots.txt и главную страницу, «как GoogleBot» и отправьте главную страницу в индекс вместе со связанными страницами (увидите соответствующую кнопку). После этого — сидеть и ждать, контролируя появление ошибок сканирования в соответствующем разделе. Можно воспользоваться инструментом удаления устаревших страниц тут: ↴

    30. Забавный вопрос, «почему у меня в Яндексе все хорошо, а в Google все плохо?«. Стоит задуматься перед тем, как задать его и Интернет лишится еще некоторого количества бессмысленных байтов. Google — не Яндекс. Это совершенно другой комплекс программ, систем и алгоритмов. Сравнить теплое с мягким еще никому не удавалось, поэтому взывать, чтобы Google посмотрел на Яндекс и сделал так же — глупо и бессмысленно. Лучше сосредоточиться на поиске реальных проблем, которые мешают Вашему сайту. Помните, что ошибки Google, как правило, массовые, т.е. заметные миллионам вебмастеров. Ищите ошибку самостоятельную, без сравнения с Яндексом, если думаете, что таковая ошибка вообще есть.

    31. А вот мои конкуренты в топе, хотя у них такие же замечания. Да, конкуренты могут закупать ссылки, воровать контент и мозолить глаза пользователям переспамом, находясь при этом в выдаче выше Вас. Увы, то, что они — Ваши конкуренты, никого не интересует, особенно Google. Мир пошатнется от осознания несправедливости и скорбности понижения вашего сайта в выдаче, но бот об этом не узнает. Если конкурент с большим количеством ссылок и более популярный, ему могут прощаться некоторые другие минусы. В конце концов, какие-то нарушения бот может не видеть, каких-то DMCA-жалоб конкуренты могут недополучить и т.п. Не сравнивайте в общем «почему?», только по какой-то конкретной ошибке сканирования можно приводить сайт конкурента в пример. В остальных случаях пустые жалобы на несправедливость никого не заинтересуют.

    32. Что сделать, чтобы сайт был в топе? Ответ простой — сделайте интересный и популярный сайт. Парадокс в том, что многие рассматривают популярность сайта, как следствие первых позиций в Google. В то время, как первые позиции в Google — следствие популярности сайта и наличия в нем уникальных сервисов или информации. Google поддерживает, а не создает популярность. Если у Вас никому не известный сайт о кошечках, то всплыть среди миллионов других сайтов о кошечках просто нереально, если что-то не выделяет Ваш сайт среди других. А если это что-то есть в наличии, то именно по нему и следует выдвигаться в поисковых системах. И работайте над сайтом для людей. В противном случае будете втянуты в войну с поисковым ботом, что в сухом остатке не даст Вам создать что-то дельное. Если создание дельного Вам претит и нужен чисто механический сгон табуна пользователей, то и на это есть ответ. Во-первых, на ваш сайт должно вести очень много проиндексированных ссылок. Во-вторых, все правила, описанные в этом кодексе, должны быть соблюдены. Т.е. с миллионом ссылок сайт можно умудриться загнать под Пингвина или Панду. Суть ранжирования Google, как я его вижу — сбор количества ссылок, как первоначальный капитал и дальнейшее вычитание за вирусность, попадание под биржевые ссылки, в том числе торговля ими, авторедиректы и прочий слив траффика и т.п. Если у Вас идеальный честный сайт и сто ведущих на него ссылок, то Ваш сайт будет ниже ГС с 100000+ ссылок, даже если две трети этих ссылок будут перекрыты явными признаками ГС. Исключением будут совсем зарвавшиеся сайты, которые боту вообще не отвечают, с горой закупленных ссылок или завирусованы. Ссылки и еще раз ссылки рулят вашим ранжированием. В Яндексе еще как-то, вроде используются поведенческие факторы, т.е. если по какой-то радости к Вам на сайт занесет миллион посетителей и они там периодически будут появляться, то в Яше Вы всплывете, на Google это не действует.

    33. Неинформативное содержание может обозначать не только пустой и бессмысленный сайт, но и проблемы с авторским правом. Первым делом следует провериться здесь . Ответ на вопрос «Почему Google меня так обозвал, хотя дело в другом?» очевидный и простой — поисковик отвергает звание эксперта по авторскому праву и не хочет связываться с толпой исков за называние авторов сайтов ворами, независимо от того, правомерные эти звания или нет. С одной стороны игнорировать жалобы правообладателей не получается, с другой — сайтостроители тоже могут потянуться в суд стройными рядами. Простой выход — выдать оценочное суждение «не нравится».

    34. Почему в выдаче не тот заголовок, который Вы хотите? Достаточно частый вопрос с простым ответом. Большинство вебмастеров ставят в заголовок ключевые слова. Неудивительно, что в случае запроса «Пластиковые окна» и выдаче исключительно заголовков, в результатах поиска был бы длинный перечень абсолютно одинаковых заголовков, только ссылки бы различались. Чтобы такого не получилось, поисковик самостоятельно формирует заголовок ссылки на Ваш сайт, собирая информацию, которая бы могла пояснить пользователю, о чем же именно идет речь на найденной странице. В результате, если вебмастер не удосужился самостоятельно выделить отличительные черты своего сайта в заголовке, сократил, либо переспамил или как-то еще изуродовал заголовок, то получить в выдаче можно совсем неожиданные результаты, порой даже куски сайтов-предков вклеиваются.

    35. Серьезные проблемы появляются у любителей тизерной рекламы, продавцов траффика и т.п. вебмастеров, которые по каким-то причинам доверяют чужому коду, подгружающему еще сторонний код или переадресовывающему посетителей куда-то еще. В последнее время, в отчаянной попытке увеличить доход от рекламы, в нее часто стали добавлять автоматическую переадресацию пользователей, что расценивается поисковиком, как клоакинг. Иными словами, если пользователь пришел на ваш сайт за плюшевыми мишками, а его автоматом перебрасывает на сайт по кактусам, то это не нравится не только пользователю, но и поисковой системе. Наиболее частый результат — ручные меры.

    36. Баннеры с предложением установки приложения крайне негативно оцениваются поисковиками, если они загораживают основной контент. Т.е. если пользователь пришел к вам за фотографиями кактусов, а вы ему в ответ лопату с предложением установить приложение, пусть даже по тем же кактусам, это будет крайне негативно оценено поисковиком.

    37. Не используйте оператор site при оценке сайта. Совсем.

    39. Если страница ВК или какого-то другого бесплатного хостинга (Юкоз, ЖЖ и прочие Фейсбуки, например) не видна в результатах. То она там и не должна быть. Большое количество народу пытается разобраться в том, почему плохо ранжируется чужой сайт. Но он чужой, Вам ничего не принадлежит. Захотят — закроют завтра, вообще не будет в выдаче. И ничего сделать или посмотреть в данный момент нельзя, поскольку все «смотрелки» у администрации ВК или про что там пойдет речь. Кроме того, бесплатные хостинги используются не только для выкладывания никому ненужных кошечек и прочей мерзости, но и для вполне осознанных вредительских целей. А варятся-то все сайты на одном домене. Вот и тонут вместе с вредителями одновременно. Решение: заводите отдельный, собственный сайт на нормальном хостинге. Его и продвигайте. Не хотите — попробуйте пробиться в поддержку хостинга, только там уже давно не отвечают на такие вопросы.

    40. Иногда пользователи переживают по поводу заблокированных ресурсов, список которых растет в соответствующем разделе Консоли. Однако, если эти ресурсы относятся к другим, сторонним сайтам, то единственное, что Вы можете сделать — убрать их со своих страниц или, если они являются неотъемлемой частью сайта — перестать волноваться. Бот предполагает, что закрытые, недоступные ресурсы могут повлиять на его способность правильно увидеть страницу, однако, катастрофическими подобные сообщения не являются. Но не следует особо переживать по поводу временно недоступных ресурсов, в большинстве случаев эта надпись обозначает, что сервис «Просмотра, как Googlebot» перегружен и не может обработать ваш ресурс полностью. Подождите, попробуйте в другое время, более пристальное внимание обратите на настройки. Как правило, рано или поздно бот эти ресурсы начинает видеть. На качестве сканирования это никак не сказывается. Оно работает с других серверов.

    41. Появились странные пользователи, полагающие, что я продвигаю что-то этим вот кодексом. Во-первых, я его публикую в основном на форуме Google, откуда ссылочное не учитывается, судя по всему. Во-вторых, повторюсь, кодекс имеет собой цель иметь возможность получить свод каких-то правил, которые просто необходимо прочитать тем, кто пишет «у меня сайт и с ним проблема, быстренько помогите мне». Любая волонтерская помощь подразумевает уважительное отношение к тем, кто Вам пытается помочь. Анализ сайта — труд. Если Вы пальцем о палец не ударили, чтобы предоставить информацию для анализа, то не ждите, что кто-то ее из Вас будет выдавливать, либо собирать ее самостоятельно. Получите кодекс — прочтите его от первого пункта до ссылок в конце, возможно, что все эти нюансы Вы знаете, возможно, что нет. Соотношение рисков первого ко второму таково, что прочитать все же следует. Плакать, что Вам дали слишком много букв тоже глупо. За каждым из пунктов не один повтор вопроса-ответа на форуме, лучше будет, если Вы сбережете свое и мое время для того, чтобы вылечить того, кому это время действительно нужно. Ваша проблема в том, что Вы чего-то не знаете, а тут информация. Бесплатно. Не смогли информацией воспользоваться самостоятельно — сообщите подробно информацию по больному. В кодексе есть перечень, что требуется. Подумаем вместе. Варианты с тем, чтобы позвать сюда на ковер самого главного, чтобы он отчитался ничтожны. Если что-то не нравится в решении вопросов — покажите всем, как оно должно быть. Какой Вы внимательный и отзывчивый гуру вебмастеринга, как помогаете пользователям отвечать на самые странные вопросы. И без кодекса набираете одни и те же ответы на одни и те же вопросы. Если Вы не готовы что-либо делать, то Вы можете принять решение отказаться от пользования Google. Это избавит Вас от затрат нервов, денег, времени и сил.

    42. Часто спрашивают, как посмотреть PR сайта. Общий ответ — никак. Дело в том, что тулбарный PR, который был доступен пользователям, уже несколько лет не обновляется (c 6 декабря 2013 года) и официально закрыт. Безусловно, сам PR страниц на техническом уровне остался, но является внутренним инструментом ранжирования и снаружи в настоящий момент не виден никак и нигде. То, что какие-то сторонние пузомерки до сих пор пытаются показывать изменения PR — исключительно инициатива этих самых пузомерок и ничего реального они не показывают.

    43. Вопрос «Как связаться с техподдержкой Google?» очень частый и бессмысленный. Дело в том, что такой техподдержки нет. По крайней мере, что касается тех продуктов, за которые Вы не платите. Т.е., поиск, вебмастера и т.п., в противоположность AdWords и Google Domains for business, например. Единственный способ решить какой-то технический вопрос — это написать его либо на форуме Google, либо на этом форуме. Увы, решать, передавать вопрос именно в Google на рассмотрение или оставить на форуме, будут эксперты в обоих случаях. Зато, если вопрос действительно масштабный, глобальный и интересный, то его передадут непосредственно команде, отвечающей за поиск и выдачу по России или даже по всему миру.

    44. Что такое ручные меры и как с ними бороться. Эти меры выдаются человеком, которому машина выдала подозрительные сигналы с вашего сайта. Вы получаете уведомление с сообщением, что и как здесь не так. По массе причин уведомление может быть с достаточно расплывчатой формулировкой, да, Google не стремится к тому, чтобы его затаскали по судам. Можно стучать головой об пол и обращаться в лигу сексуальных реформ, но в данном случае важно, что Вы остаетесь один на один с тем, что ваш сайт Google не нравится. Да, бывают ошибки, но я за все время лично с ними не сталкивался. Первое, что нужно уяснить, меры сайт уже получил. «Быстро-быстро» не получится. Внимательно оцените причину попадания под меры и нарисуйте план действий. Даже если Вы уверены в том, что именно послужило причиной ручных мер, не спешите посылать на пересмотр до того, как трижды все не перепроверите, в том числе какие-то смежные моменты. Каждая отправка на пересмотр увеличивает время этого самого пересмотра. И не надо умолять никого, что больше так не будете, плакать, что это не Вы виноваты, а злой рок или предыдущий вебмастер. Поверьте, не Вы первый, быстрее не будет. Что касается сроков пересмотра, то они могут быть самыми разнообразными, как правило, от недели до трех месяцев, в зависимости от загруженности команды качества поиска, злостности вашего нарушения и количества повторных проверок, например.

    45. Если не приходит ответ на пересмотр ручных мер или пересмотр проблем безопасности, то одной из частых причин является осел. Не тот, что за компьютером сидит, а тот, что IE, т.е. Internet Explorer. С ним же может быть связана куча других проблем. Продукты гугла использовать через недобраузеры — моветон. Пользуйтесь Google Chrome.

    46. Обратите внимание, что во всех загружаемых роботом или отправляемых Вами в Google текстовиках (например: Disavow Links, Robots.txt, Sitemap) не должно быть BOM (Byte Order Mark), если они сохраняются в UTF. В противном случае гарантирована ошибка их обработки или просто файл будет проигнорирован.

    47. Часто спрашивают, почему робот настойчиво индексирует HTTPS, хотя «мы давно от него отказались». Так вот, если Вы от него отказались, то с HTTPS-страниц должен быть редирект на соответствующие HTTP-страницы. В противном случае робот при наличии двух протоколов будет предпочитать HTTPS, несмотря на то, что Вы его давно забросили и там кривой сертификат, пугающий посетителей. Еще один вариант, похуже, вообще отключить ответ на 443 порту. Имеет право на жизнь, однако значительно увеличивает срок переиндексации страниц в пользу HTTP. Должен заметить, что в целом не стал бы рекомендовать откатываться с HTTPS, если на нем уже большая часть страниц проиндексирована.

    50. Если сайт на WordPress, то, возможно, вас взломали. Аудит безопасности для таких сайтов.

    51. В sitemap проиндексировано 0 (при этом в поиске страницы есть). Конечно есть. Особенно, если сайт давно работает, а сайтмап Вы сделали пять минут назад. Еще раз, данные в консоли обновляются очень медленно. Подождите, выровняется, насколько это возможно.

    52. Обязательно расставьте rel=»nofollow» всем ссылкам навигации. Это значительно ускоряет индексацию ресурса в целом при значимом количестве страниц.

    54. Не ограничивайте FTP, лучше уберите его на другой порт.

    55. Если в индекс попал мусор, как удалить лишние страницы. Особенно этим страдают бывшие завирусованные, которые не могут подобрать правильный раздел для удаления их всех скопом. Решение все же есть. Для начала все эти страницы должны возвращать 410 код. Соответственно, после этого создайте страницу-список ссылок, с обязательным META NAME=»ROBOTS» CONTENT=»NOINDEX, FOLLOW» и скормите ее гуглоботу в консоли с индексацией всех ссылок.

    56. «У меня очень мало приходит с Google» иногда обозначает, что не приходит никто вообще. Если по консоли или журналам приходит около 30-40 человек в день, то это, скорее всего, не люди, а боты проверяющие и подставляющие реферер поиска, что портит статистику.

  • Добавить комментарий