Google о влиянии видеоконтента на позицию сайта в выдаче


Содержание материала:

Исследование Rookee: от публикации контента до новых позиций, когда ждать результат

Оригинальный контент по заявлениям Яндекса и Google — один из основных признаков качественного сайта, который помогает в индексировании и улучшает ранжирование. Но практически все, кто начинает наполнять сайт качественным контентом, сталкиваются с проблемой оценки результата и роста позиций. В итоге владельцы сайтов делают скоропостижные выводы, на ходу меняют контент-политику, проводят ошибочные корректировки – тратят время, нервы и деньги.

Специалисты сервиса Rookee провели исследование и выяснили, сколько времени проходит от момента выкладки контента на сайт до его влияния на позиции в выдаче.

В течение 6 недель специалисты анализировали страницы сайтов, которые поделили на две большие группы:

домены до года (сайты с возрастом от 6 до 12 месяцев);

домены старше 3 лет.

В исследовании приняли участие сайты следующих тематик:

Все страницы тестируемых сайтов поделили примерно на равные части и провели контентные работы по трем направлениям:

создание новых страниц с оригинальным контентом;

замена текста на уже имеющихся страницах без изменения URL;

корректировка имеющихся текстов с увеличением объема, расширением тематического, ассоциативного LSI-ядра ключевых слов, связанных с тематикой и структурой сайта.

Условия эксперимента

Во время исследования на тестируемых страницах и доменах не проводилось никаких работ, кроме контентных. Все страницы уже были оптимизированы и проиндексированы.

Позиции сайтов замерили до начала работы с контентом. Для каждой страницы был подобран пул из четырех основных запросов (в основном средне- и низкочастотные). Далее провели запланированные работы, используя только качественный и уникальный контент, после чего все страницы были отправлены на переиндексацию в Яндекс.Вебмастер.

Позиции отслеживались ежедневно в Яндексе и Google в течение 6 недель после выкладки контента. Из эксперимента исключили сильно отклоняющиеся от среднего значения данные. Таких оказалось немного: 1–1,5 % страниц в каждой подгруппе.

Итоговые выводы были сделаны по средним в подгруппе значениям.

Отметим, что в данном эксперименте не важно выросли или упали позиции.

В ходе эксперимента были выявлены отличия в скорости индексации страниц сайта по тематикам:

И товары, и услуги показали примерно одинаковую скорость индексации. Новые страницы попадают в индекс через 3–5 дней после выкладки контента, копии старых изменяются с достаточно большим разбросом по сроку: 4–8 дней.

Информационные сайты и инфостраницы коммерческих сайтов

В этой тематике получен самый неоднозначный результат по скорости переиндексации. Примерно у 30 % тестируемых страниц сохраненная копия изменилась за 2 дня. Большинство остальных – в срок 4–7 дней.

Самое быстрое время обновления кэша в поисковых системах (1–2 дня). В выборке участвовали как сайты категории СМИ с официальным статусом, так и новостные порталы, включая региональные ресурсы. Большая часть из них отдает RSS-ленты.

Влияние на позиции новых URL новостных сайтов также показали самый быстрый результат. На большой части страниц изменения произошли сразу после публикации контента и индексации.

Страницы с частично обновленным контентом, у которых URL остался неизменным, переиндексируются дольше — 4–7 дней в поисковых системах Яндекс и Google. Отметим, что около 1,5 % страниц переиндексировались в Google только через 14 дней.

Наблюдения и выводы

Первое изменение позиций происходит через 3–7 дней после изменения текстовой копии страниц. Но запросы продолжает «штормить» еще некоторое время. Особенно это характерно для поисковой системы Яндекс. К более устойчивой позиции с плавной динамикой запросы приходят примерно через 2 недели после обновления сохраненной копии. Далее наступает некоторая стагнация, но через 3–4 недели позиции порядка 57 % запросов снова меняются — и этот результат остается стабильным.

Рассмотрим проекты с ростом позиций в выдаче

Для 68 % страниц с новым и старым URL при полной замене текста получили положительный импульс в ранжировании в поисковых системах Google и Яндекс.

График по темпу роста позиций для страниц, показавших рост после индексации в выдаче поисковых систем Яндекс и Google .

Для страниц с готовыми текстами, в которые только внесли изменения, позиции выросли у 42 % в Яндексе и у 31 % в Google.

График проектов, у которых не менее 50 % запросов показали рост в поисковых системах Яндекс и Google.

Согласно эксперименту, процесс учета текстовых изменений поисковой системой Яндекс можно поделить на 3 этапа:

Первичная индексация изменений (обновление сохраненной копии документа).

Предварительный отбор документов поисковой системой, выкладка текстового индекса. Первое изменение позиций, обычно происходит только через 4–7 дней после индексации. В этот период можно увидеть изменение позиций, которые часто оказываются нестабильными и продолжают меняться.

Итоговое ранжирование — второе заметное изменение позиций обычно происходит через 3–5 недель после индексации изменений.

Позиции могут меняться и после этого периода (нельзя исключать влияние поведенческих, социальных и прочих факторов, которые для эксперимента отключить не представляется возможным), но изменения плавные с явно отслеживаемым направлением динамики.

В поисковой системе Google позиции начинают меняться уже через 2 – 3 дня после индексации. Изменения продолжаются около 2 недель, но их динамика более плавная, чем у Яндекса. Позиции, полученные в Google, стабильнее, значительные скачки наблюдались у 26 % запросов в рамках топ-20. В среднем, позиции в Google стабилизируются быстрее, чем в Яндексе.

Согласно результатам эксперимента, срок установления устойчивой позиции примерно равный и для страниц, показавших рост позиций, и для тех, чей рейтинг в выдаче упал.

Срок изменения сохраненной копии у старых и новых доменов в среднем не отличается. Но позиции у старых доменов немного быстрее реагируют на изменения, растут на большее количество пунктов, их меньше «штормит» в течение всего периода.

Выводы

В понятие «текст проиндексирован» SEO-специалисты часто вкладывают разный смысл. Проиндексированный (попавший в кэш поисковых систем) текст влияет на позиции не сразу. Кроме того, позиции могут меняться еще некоторое время после публикации текста. Первое «быстрое» изменение позиции по запросу (особенно в Яндексе) нестабильно.

Согласно результатам исследования, среднее время окончательного принятия решения о позиции для страницы с новым текстом у поисковых систем составляет 4 – 5 недель.

Позиции для страниц с готовым текстом, в которые вносились доработки, стабилизируются на 1–2 недели раньше (однако в нашем случае такие страницы показывали меньше положительной динамики по позициям).

SEO-мифы: 10 вещей, которые не влияют на ранжирование сайтов

Каждый уважающий себя SEO-специалист знает, что нужно делать для того, чтобы попасть на верхние строчки поисковой выдачи. А знаете ли вы, какие действия на самом деле не оказывают никакого влияния на место сайта в Google? Об этом я и хочу рассказать в этой статье.

1. Время создания домена

Существует мнение, что более старые сайты ранжируются выше, чем более молодые. Да, это может быть так – но не из-за того, что сайту 5-7 лет, а из-за того, что за время своего существования сайт успел обзавестись хорошей репутацией, различными ссылками и т.д. – всем тем, что напрямую влияет на ранжирование.

А вот сама дата регистрации домена не влияет (и об этом в Твитере заявил представитель Google). Поэтому даже если сайт создан полгода или год назад, он уже имеет шансы вылезти в топ. Но о чем важно помнить – к более молодым сайтам поисковые боты более придирчивы: они проверяют, нет ли на сайте некачественной ссылочной массы или дублей – и попасть под фильтр новым сайтам проще, чем старым.

2. Количество лайков и репостов страниц

Сейчас уже сложно найти страницу без возможности сделать репост в одну из социальных сетей. Многие ставят такие счетчики, потому что это модно и современно; другие уверены, что это поможет продвижению в поисковиках. Но на самом деле само количество репостов и лайков на позицию сайта в Google никак не влияет – влияют последующие действия пользователей, которые увидели репост. Поэтому иметь кнопки шеринга на сайте полезно, а вот покупать репосты и лайки – нет.

3. На чем создан сайт

Для бота Google неважно, какие именно технологии используются на сайте. Главным все равно остается контент, который видят пользователи – и который сканируют поисковые боты. Конечно, есть движки, более заточенные под SEO, а есть менее – поэтому появилось понятие «SEO-friendly СMS». Это не значит, что Google как-то особенно выделит сайт на этом движке – просто система поможет оптимизировать сайт для продвижения: можно использовать мета-теги и ЧПУ, кэширование (для увеличения скорости работы сайта) и т.д. Все это положительно влияет на SEO, однако сам движок отдельно Google не оценивает как положительный или отрицательный фактор.

4. Вид хостинга

Google все равно, где вы расположите сайт – на виртуальном хостинге или на собственном отдельном сервере. До тех пор, пока это не влияет на скорость работы сайта и его доступность. Поэтому выбирайте тип хостинга и тариф, исходя из нагрузки и других характеристик, а не в надежде получить повыше место в поисковой выдаче.

5. Количество страниц сайта

Все тот же представитель Google Джон Мюллер сообщил, что прямой связи между количеством страниц на сайте и его местом в поисковой выдаче нет. Здесь, опять же, нужно понимать, что больше страниц – это больше контента, статей, больше внутренних ссылок и других полезных для оптимизации элементов. То есть нет смысла искусственно увеличивать количество страниц только ради ранжирования, но есть увеличивать количество полезного контента.

6. Показ сайта в Сети знаний и блоке ответов

Сеть знаний (Knowledge Graph) отображается при поиске информации о каком-либо предмете в виде краткой информации об этом объекте. А блок ответов появляется, если пользователь задал какой-то вопрос (и Google нашел, какой ответ можно ему предложить). Само отображение сайта в подобной области никак не влияет на место сайта в поиске – просто по данному запросу наиболее релевантным оказался этот сайт.

И, кстати, тут есть один нюанс: получая информацию прямо в поисковике, пользователь потом не заходит на сайт, который предоставил эту информацию. То есть когда сайт попадает, например, в блок ответов – это почетно, но… лишает сайт потенциальных посетителей. Поэтому существует совет: не выкладывайте сразу всю информацию, а оставьте что-то, ради чего пользователь может зайти на ваш сайт.

7. Индексирование всех страниц

Веб-мастера переживают, если Google индексирует не все страницы их сайта. Однако на самом деле если в индексе не все страницы – это нормально. Если Google-бот видит, что на сайте есть две страницы, содержание которых очень похоже, то он может добавить в индекс только ту страницу, которая имеет более качественные и полезные материалы.

8. Ошибка 404

Принято считать, что наличие страниц с 404 ошибкой негативно влияет на индексирование и ранжирование сайта в поисковиках. Однако специалист Google Гэри Иллиес заявляет, что неверно полагать, что ошибки 404 влекут за собой какие-либо санкции для сайта.

Определенная логика в этом прослеживается, ведь если бы 404 ошибка действительно влияла на SEO, то можно было бы легко потопить сайт конкурента при помощи несуществующих ссылок. Джон Мюллер также заявлял, что Google-боты не обращают внимания на ссылки, которые никуда не ведут; битые ссылки никак не влияют на ранжирование, даже если их будет очень много.

Впрочем не стоит забывать о том, что даже если 404 ошибки не влияют на ранжирование, они могут негативно восприниматься посетителями, поэтому от неработающих ссылок лучше все равно избавляться.

9. Длинный список ключевых слов

До сих пор существует мнение о том, что, во-первых, нужно включать максимальное количество ключевых слов в тег , а во-вторых, нужно размещать максимальное количество ключевых слов на странице. И то, и другое неверно: тегу поисковые боты уже не придают большого значения, а большое количество слов на странице (да и в теге, кстати, тоже) бот посчитает как перенасыщение и спам. Поэтому здесь нужно помнить о правиле, что больше – это не значит лучше.

Обычно рекомендуют делать плотность ключевых слов в 5% — то есть ключевые слова должны составлять в районе 5% от всего текста на странице. Меньшее количество может привести к понижению релевантности, а большее – к спаму.

10. Платная реклама

Наконец, бытует мнение, что платная реклама может повысить позиции сайта и в органической выдаче. Однако какого-либо подтверждения на практике она не нашла. Маркетологи, работающие с Google, отмечали, что позиции их сайтов в поисковой выдаче никак не изменились даже несмотря на то, что они тратили на рекламу по несколько тысяч долларов.

Вывод

Эти 10 мифов – не единственные мифы, существующие в SEO-сфере. Некоторые SEO-специалисты до сих следуют правилам, которые уже потеряли свою актуальность – в мире поисковых систем все меняется очень быстро. Поэтому следите за последней информацией в официальных блогах компаний, пробуйте и делайте выводы.

Какую пользу принесет видеоконтент Вашему сайту?

Одним из самых главных критериев успешного продвижения сайта в поисковых системах являются хорошие поведенческие факторы (более подробно тут). Чем дольше люди задерживаются на сайте, чем больше они активничают (нажимают на кнопки, переходят по ссылкам), тем выше будут позиции ресурса в выдаче. Поэтому нужно стремиться к удержанию аудитории.

Возможностей для выполнения этой задачи куча – например, на моем блоге, на некоторых уроках есть возможность пройти тесты по пройденному материалу. Естественно, качественные тексты тоже являются отличным инструментом по удержанию аудитории, но все-таки для большинству текстовые материалы “заходят” плохо. Отсюда вытекает одна очень хорошая мысль – а что если использовать видеоконтент?

В моей голове уже давно зреют мысли о том, чтобы начать снимать видео-инструкции, как дополнение к урокам, но почему-то это постоянно откладывается. Надеюсь данная статья поможет мне наконец реализовать эту задумку.

Любят ли поисковые системы видео?

Для начала поставим такой вопрос – поможет ли видео-материал поднять позиции в выдаче? Около года назад один из сотрудников Google заявил, что добавление видео на страницу не поможет ей ранжироваться выше конкурентов. Получается, что, как прямой фактор влияния на выдачу, видеоконтент работать не будет. Скорее это даже очень хорошо, чем плохо. Почему?

В том случае, если бы все кто снимает видосики поднимались бы в выдаче выше тех, кто не снимает, то поисковики давно бы превратились в самые настоящие видео-свалки, где находятся, как хорошие материалы, так и “какшки” настоящие (прошу прощения). А организовать качественный контроль (тобиш модерацию) стало бы очень сложно – практически невозможно.

Зачем вообще тогда снимать видео и выкладывать на свой сайт? Ответ находится в самом начале этой статьи. Все дело в поведенческих факторах (их-то влияние никто не отменял)! Как я уже сказал, большинство предпочитает потреблять контент в видео-формате, от чего Вы думаете тогда столь популярен YouTube?

Просматривая видео, человек задержится на сайте еще, как минимум, минуты на 3-и. Теперь представьте, что посещаемость Вашего сайта 500-800 человек/сутки и практически каждый 3-й будет воспроизводить Ваш ролик, что случится? Случится то, что позиции сайта заметно вырастут.

Поисковым системам важно, чтобы их пользователи были удовлетворены результатами поиска. Поэтому они и поощряют тех, кто помогает им добиться выполнения этой задачи.

По-моему, глупо не учитывать этот факт при работе в Интернете. Я вот уже долгое время туплю и никак не могу начать снимать видеоконтент. Это очень хорошая возможность не только для улучшения поведенческих факторов, но и для развития бизнеса. Используйте эту возможность!

Как снимать видеоматериал?

Существует много способов и выбор зависит от того, чем Вы занимаетесь. К примеру, мне достаточно снимать свой экран, выполнять определенные действия мышью и клавиатурой и что-то говорить. А вот какому-нибудь Мише, решившему снимать то, как он ремонтирует автомобили, потребуется уже камера.

Главное требование, которое Вы должны соблюдать при съемке видео – нужно быть экспертом в своей области. Знать определенные вещи, присущие Вашей теме, и рассказывать о них. Всегда же приятно смотреть и слушать человека разбирающегося в теме.

Как публиковать?

У Вас всегда есть возможность завести аккаунт в Google и открыть канал на YouTube. Вот прямо в этом канале можно публиковать видео. Там же есть возможность разместить ролик у себя на сайте посредством вставки скрипта в код сайта – он есть у каждого видео.

Как видите, проблем с публикацией нет. Основная проблема состоит в том, как снимать и что снимать. Но это уже дургой разговор.

У меня на этом все, дорогие друзья!

Используйте все возможные инструменты в работе, пробуйте, тестируйте и тогда Вы сможете достичь необходимого результата. Поверьте мне!

Топ-пост этого месяца:  Изучение Material Design Lite Меню

Google о влиянии видеоконтента на позицию сайта в выдаче

если за накрутку ПФ боитесь, то да, желательно не ставить код Analytics,
но надо учитывать ещё возможности самого Google, он же неплохо знает DNS
и ему доступны многие пользовательские данные.

то есть, если у Google будет стоять задача узнать всё о сайте, то он узнает.

достаточно вспомнить амеровскую призму и её разоблачение, весь интернет и все кто в нём находится под полным или частичном присмотром.

Влияет, потому и не рекомендуют сходу на новый пустой сатй лепить счетчики. И то касается не только GA, но и Яндекса.Метрики и Лив,Интернет (тот же яндекс, только в профиль)

Как говорилось выше, так системы видят всю подноготную ваших сайтов и на основе полученных данных делают свои выводы.

Некоторые специалисты после исследований рекомендуют даже ставить счетчики тогда, когда вы наберете хотя бы 100 пользователей в день (вычислить количество посетителей можно с помощью логов сервера и счетчиков на нем).

Алгоритмы Google: как улучшить позиции, не попав под санкции

Регулярно Гугл и Яндекс выпускают новые алгоритмы, задачей которых является улучшение выдачи, борьба с некачественными ресурсами. Если раньше пользователь на свой запрос получал бесконечное множество страниц и не всегда находил нужный ему ответ, то сейчас, благодаря поисковым алгоритмам, он в считаные секунды может получить решение на любой интересующий вопрос.

В статье мы расскажем об основных алгоритмах Google, выпущенных в последние годы, и их влиянии на выдачу. Разберемся, что нужно учитывать владельцам сайтов, чтобы не попасть под санкции и как следует оптимизировать и продвигать свой ресурс, чтобы улучшать позиции.

Таблица алгоритмов Google:

25.12.2013, 16:46 #9
Название Дата выпуска Цель
Гугл Панда (Google Panda) 24.02.2011 г., проводятся регулярные апдейты борьба с неуникальным, низкокачественным контентом
Гугл Пингвин (Google Penguin) 24.04.2012 г., сейчас работает в режиме реального времени понижение позиций сайтов с некачественными и неестественными ссылками
Колибри (Hummingbird) 30.08.2013 г. предоставление более релевантных результатов, основанных на понимании смысла запросов пользователя
Антипиратский апдейт (Google’s Pirate Update) Август, 2012 г. понижение позиций сайтов, содержащих пиратский контент
Голубь (Pigeon) 24.07.2014 г. предоставление наиболее релевантных результатов поиска в зависимости от местонахождения пользователя
Mobile Friendly Update 21.04.2015 г. улучшение позиций сайтов, оптимизированных под мобильные устройства
Фред (Fred) 08.03.2020 г. чистка поисковой выдачи от сайтов, целью которых является получение прибыли. Страницы с большим количество рекламы, переоптимизированными текстами и множеством исходящих ссылок исключаются
RankBrain начало 2015 года понимание запросов пользователя

Теперь давайте поговорим отдельно о каждом алгоритме, поймем, какие факторы могут помешать продвижению сайта и что стоит изменить на своем ресурсе, чтобы улучшить позиции в результатах поиска.

Гугл Панда (Google Panda)

Под санкции этого алгоритма попадают сайты с неуникальным автоматически сгенерированным контентом, а также сайты с текстами, перенасыщенными ключевыми запросами. Помимо этого, алгоритм затрагивает ресурсы, на которых один и тот же текст повторяется на разных страницах. Более подробно об алгоритме Панда вы можете узнать в одной из наших статей.

Добавляйте только уникальные тексты на свой ресурс, желательно, чтобы оригинальность была не ниже 95%. Не перенасыщайте тексты ключевыми запросами – рекомендуем использовать 1 запрос на 300-500 символов. Проверьте сайты на дубли, их быть не должно, в противном случае закрывайте дубли от индексации, настраивайте тег canonical или next prev, если страницы являются полностью одинаковыми – настройте редирект.

Работа с контентом может значительно повлиять на продвижение вашего ресурса, поэтому добавляйте оптимизированные статьи как можно чаще, пишите продающие уникальные описания для товаров в магазине, и тогда никакая Панда вам будет не страшна.

Гугл Пингвин (Google Penguin)

Под санкции попадают сайты с покупными ссылками, ресурсы с низкосортной ссылочной массой (ссылки ведут с сайтов плохого качества или вовсе не подходят по тематике).

Регулярно проверяйте ссылочную массу, ведущую на ваш сайт, с помощью Вебмастеров и сервисов для анализа ссылок, например, Megaindex.com. Избавляйтесь от спамных ссылок, ссылок с низкосортных ресурсов. При продвижении наращивайте только естественную ссылочную массу (об этом читайте в нашей статье), старайтесь делать упор на безанкорные ссылки. За большое количество ссылок с ключевыми словами можно получить санкции.

Колибри (Hummingbird)

Можно сказать, что это основной алгоритм Гугл, который включает в себя и Панду, и Пингвин, и Фред и RankBrain. Он предоставляет пользователям страницы с точным вхождением запроса, учитывая смысл запроса и принимая во внимание синонимы поисковой фразы.

Пишите тексты, ориентируясь на людей, а не роботов. Точное вхождение ключевых фраз не обязательно, используйте LSI-копирайтинг. Контент на сайте должен быть разнообразным, поэтому стоит включать больше синонимов, касающихся тематики запроса.

Антипиратский апдейт (Google’s Pirate Update)

Алгоритм Гугл, который, согласно закону DMCA (рус. Закон об авторском праве в цифровую эпоху), обязует поисковые системы не показывать ресурсы, нарушающие авторское право. Название алгоритма говорит само за себя, он борется с сайтами, содержащими пиратский контент, а также ресурсами, которые публикуют информацию о том, как скачать авторский контент из интернета.

Алгоритм Google’s Pirate Update затрагивает как органическую, так и платную выдачу, то есть у ресурсов с пиратским контентом не будет возможности продвигаться даже в платной выдаче Гугла. Подать жалобу на кражу материалов вы можете на сайте.

Также в 2020 году был введен Антипиратский закон, согласно которому страницы с пиратским контентом будут заблокированы.

Все очень просто – не добавляйте пиратский контент на свой сайт. Если на ваш ресурс будут поступать жалобы, точное количество которых Гугл не озвучивал, то сайт попадет под санкции.

Голубь (Pigeon)

Алгоритм, который учитывает нахождение пользователя и выдает результаты в соответствии с его местонахождением, удаленностью от предполагаемого объекта. К примеру, если вы хотите найти ближайший медпункт от вас, Google учтет вашу локацию и выдаст в результатах те учреждения, которые ближе всего находятся к вам.

Для улучшения локального ранжирования стали привлекаться асессоры – именно люди принимают участие в оценке ресурсов, анализируя популярную локальную выдачу. Асессоры изучают сайты на соответствие местонахождения по региону, их задача – избавить выдачу от ресурсов, которые на самом деле не соответствуют требованиям.

Чтобы улучшить ранжирование вашего сайта по определенному региону, рекомендуем вам зарегистрировать сайт в Google Мой бизнес, а также в справочнике Яндекса, каталогах и справочниках сайтов. Указывайте местонахождение в тегах и текстах, это позволит увеличить релевантность сайта по региону.

Mobile Friendly Update

Не секрет, что Google отдает предпочтение сайтам, оптимизированным под мобильные устройства. Поисковик изменил подход к индексации и начал обрабатывать сайты, исходя из интересов мобильных пользователей. Согласно показаниям статистики, мобильные запросы в разы превысили десктопные. На данный момент mobile-index стал основным, а значит, в первую очередь будут индексироваться и ранжироваться mobile-friendly сайты.

Как сообщил сотрудник поисковика Джон Мюллер, Google будет оповещать владельцев о переводе их сайта на mobile-first индексацию через сервис Search Console.

Вы можете проверить, соответствует ли ваша страница требованиям Google, с помощью инструмента проверки мобильных страниц, и внести изменения по его рекомендациям. Помните, чтобы угодить Google, ваш сайт обязательно должен иметь адаптивный дизайн или мобильную версию.

Фред (Fred)

Под «прицел» данного алгоритма попали малополезные для пользователя сайты. В основном это ресурсы, содержащие контент для привлечения трафика и большое количество рекламного материала.

Не злоупотребляйте медийной, баннерной и другой рекламой; избегайте большого количества исходящих ссылок.

RankBrain

Система искусственного интеллекта, созданная на базе машинного обучения, которая позволяет правильно понимать и обрабатывать запросы пользователей. Более подробно о работе RankBrain мы уже писали в одной из наших статей.

Теперь вы знаете все об алгоритмах Google и наверняка поняли, что следует изменить на вашем сайте, чтобы улучшить свои позиции в поисковой системе и не попасть под санкции. Если времени на доработку не хватает, вы всегда можете обратиться к нашим специалистам за услугами поискового продвижения – учтем все тонкости ранжирования как Яндекса, так и Гугла.

Оптимизация в Google: 16 интересных seo-экспериментов


Полезные и интересные эксперименты с поисковой оптимизацией, задача которых заключалась в проверке тех или иных утверждений и предположений.

Широко известно, что seo оптимизация не является точной наукой. В отличие от химии, здесь не бывает формул, которые гарантируют заранее известный и точно воспроизводимый результат. Поэтому по мере развития поисковых систем специалистам по продвижению приходится постоянно экспериментировать и выявлять новые закономерности.

В Search Engine Journal была опубликована подборка SEO-экспериментов. Мы отобрали наиболее интересные и показательные среди них и добавили подробности.

1. URL простым текстом без ссылки

Суть эксперимента: группа маркетологов из академического сектора заметила, что на некоторых веб-сайтах университетов и колледжей при публикации научных работ ссылка на них прописывалась простым текстом, без тега a /. Они решили проверить, как именно это влияет на обнаружение страниц поисковыми системами.

Для этого был создан новый домен с единственной страницей, оптимизированный под некоторую ключевую фразу. После этого исследователи начали с некоторым временным интервалом одну за другой публиковать страницы, содержащие ссылки на этот домен простым текстом.

Результат: все 20 опубликованных страниц были закэшированы Google, но на позицию домена в выдаче это никак не сказалось. Сами ссылки при этом действительно были обнаружены.

2. Влияние Google+ и Twitter на результаты поиска

Суть эксперимента: когда компания Google представила функцию выдачи результатов поиска в реальном времени, туда стали попадать твиты. Вскоре после этого вывод твитов в выдачу был отключен, но вопрос остался: как твиты влияют на позиции и стоит ли их использовать? Оправдана ли оптимизация сайта для google с ними?

Исследователи провели три теста:

Попытка привлечь внимание к одной непроиндексированной поисковиками странице. Исходный твит получил больше 400 ретвитов (и, как следствие, некоторое количество лайков в Facebook и LinkedIn) и к концу дня попал на первое место выдачи в Google по уникальной ключевой фразе.

То же самое, но после того, как Google отключил прямой доступ к данным Twitter. Google и Bing понадобилось до 8 часов, чтобы закэшировать страницу. Через некоторое время по новой уникальной ключевой фразе страница вышла на первое место в поисковой выдаче.

Тест на скорость кэширования двух уникальных страниц при постинге в Twitter и Google+. Страница, на которую была поставлена ссылка в Twitter, вышла на первое место по заданной ключевой фразе в течение 13 минут. Страница, на которую ссылка была поставлена в Google+, на первое место вышла через два часа.

Довольно быстро стало ясно, что хотя у Google больше нет прямого доступа к ленте Twitter, многочисленные агрегаторы и скрейперы делают твиты доступными для поисковой системы, пусть и с некоторым отставанием.

Результат: вне всякого сомнения, твиты и посты в Google+ влияют на результаты поиска, и оптимизация сайта под google не может без них обойтись. Кроме того, значение имеет и количество ретвитов: чем их больше, тем выше страница поднимается в результатах поиска.

3. Стоит ли ставить ссылки со страниц, где их и так уже много

Суть эксперимента: влияет ли количество исходящих ссылок с авторитетного сайта на темпы роста PageRank страниц-акцепторов.

Для эксперимента было создано два совершенно новых сайта и один промежуточный домен. Оба сайта в течение контрольного отрезка времени сохраняли примерно одинаковые позиции. После этого на второй сайт через промежуточный домен была поставлена ссылка с сайта debian.org, имеющего 4225 исходящих ссылок (прим. пер. — эксперимент проводился в августе-сентябре 2012 года, т.е. после запуска Penguin).

После получения обратной ссылки позиции первого сайта сначала повысились (со 113 до 82), а затем ушли вниз (до позиции #186). В то же время позиции второго сайта, получившего новую ссылку, резко пошли вверх и к моменту окончания измерений зафиксировались на седьмой позиции в топе.

Результат: испытание показало, что ставить ссылки со страниц, уже имеющих большое количество исходящих ссылок и высокий PageRank, всё же имеет смысл.

4. Эксперимент с активной публикаций материалов в блоге

Суть эксперимента: как активная публикация новых материалов влияет на позиции сайта в поисковой выдаче и конверсию.

На сайте небольшой финансовой фирмы наблюдалось отсутствие как роста, так и падения посещаемости на протяжении месяцев. В среднем в неделю на сайт заходило около 90 человек, которые преимущественно искали контактные данные компании.

Проверяя, как сработает оптимизация сайта под гугл в рамках экспертимента, специалист попросил свою аудиторию в Twitter, Facebook и LinkedIn задать интересующие их вопросы по страхованию. Из 135 полученных вопросов он отобрал 100 и по каждому из них записал и опубликовал короткий видеоролик с ответом. Всего было опубликовано 100 таких роликов, по одному в день.

Результат: посещаемость блога начала быстро расти — во многом, благодаря взаимодействию с аудиторией в социальных сетях, но также и за счёт поисковых систем.

Анализ показал, что примерно трёхкратный прирост заходов из поисковиков произошёл, главным образом, за счёт низкочастотных запросов.

Что касается конверсий, рост дохода за исследуемый период составил $4975. С учётом того, что временные затраты составляли 15 минут в день, это означает доход $200 за час.

5. Выкидывание оригинальной страницы из результатов поиска

Суть эксперимента: алгоритм работы поисковика Google старается отсеивать дубликаты страниц в результатах поиска; может ли в таком случае посторонний сайт, скопировавший существующую страницу, выкинуть оригинальный сайт из выдачи за счёт обратных ссылок с авторитетных доменов?

Для эксперимента на сайте оптимизатора был создан поддомен, на котором была опубликована полная копия страницы другого сайта (с разрешения владельца). На эту страницу были размещены ссылки с авторитетных доменов.

Через пять дней дубликат вытеснил оригинал из топа выдачи. Затем эксперимент был повторен с другой страницей, которая была вытеснена со своего места уже через два дня.

Однако через две недели оптимизатор получил предупреждение в Google Webmaster Tools о том, что он применяет нерекомендуемые методы продвижения. Владельцу «сайта-копии» было предложено внести изменения и отправить сайт на повторную индексацию.

Результат: эксперимент показал, что новый сайт действительно может вытолкнуть существующий сайт из поисковой выдачи, скопировав его контент и проставив на свою копию ссылки с авторитетных доменов. Однако это работает очень недолго и чревато баном в поисковой системе; таким образом оптимизировать страницы не стоит.

6. Значение кнопки Google +1

Суть эксперимента: в прошлом году компания Google представила функцию «Search Plus My World», повысив влияние Google+ на результаты поиска. Но как именно влияет +1 на позиции ваших страниц?

Для эксперимента исследователи выбрали три запроса, измерили результаты, щёлкнули +1 и проверили изменения в поисковой выдаче.

Результат: в одном случае страница с пятой позиции перешла на третью, в другом — с седьмой на шестую, в третьем случае никаких изменений не было.

Исследователи пришли к выводу, что помимо самого факта щелчка +1 значение имеет и соответствие страницы запросу. Иными словами, чем выше релевантность страницы запросу, тем большее влияние оказывает +1.

7. Восстановление сайта после пессимизации

Суть эксперимента: если причины бана или существенного понижения в выдаче известны, насколько просто восстановить прежние позиции?

Падение трафика из Google началось 24 апреля 2012 года. Анализ показал, что порядка 11% обратных ссылок содержат переоптимизированный текст анкора и ведут с одного сайта, который, к счастью, контролировался самим оптимизатором.

Все 77 анкоров были переписаны так, чтобы выглядеть естественно. Примерно через 6 дней сайт снова появился в поисковой выдаче, но уже не на первом, а на втором месте.

Результат: восстановить позиции сайта после пессимизации можно, но это непростая задача, особенно если у вас нет возможности внести изменения в уже размещённые ссылки.

8. Тестирование нерекомендуемых методик продвижения

Суть эксперимента: маркетологи рекомендуют придерживаться исключительно «белых» методов продвижения, разрешённых Google. Но так ли это важно на самом деле?

Чтобы проверить утверждение, на сайт, держащийся на третьей позиции по определенному ключевому слову, было размещено множество спамных ссылок: 7000 ссылок на форумах, 45000 комментариев в блогах и 4000 ссылок в боковых панелях блогов.

Результат: потеря позиций произошла практически мгновенно. Менее чем за месяц сайт упал на 14-е место в выдаче по тому же ключевому слову.

9. Быстрое ранжирование нового сайта

Суть эксперимента: с введением алгоритма Penguin маленьким сайтам стало сложнее быстро наращивать позиции в сравнении со старыми, авторитетными сайтами. Насколько реально быстро поднять позиции нового сайта по некоторому ключевому слову?

В порядке эксперимента на некоторый новый сайт были размещены ссылки с авторитетных интернет-площадок. При этом в анкоре фигурировала не только искомая ключевая фраза, но и похожие по смыслу фразы, а сами ссылки были «размазаны» по множеству доменов.

Результат: менее чем через два месяца после начала оптимизированного эксперимента сайт вышел на четвертую позицию по заданному ключевому слову. Таким образом даже после введения новых алгоритмов совершенно новый сайт может быстро набрать вес, используя грамотные методики продвижения.

10. Как найти ссылки на страницы, которыми вы не управляете

Суть эксперимента: при использовании Google Webmaster Tools можно посмотреть обратные ссылки на свои страницы. Можно ли «добавить» страницы конкурента?

Для этого экспериментатор разместил у себя полные копии страниц другого сайта и дождался их индексации.

Результат: Google посчитал скопированные страницы легитимными копиями «каноничных» страниц, а поскольку у дубликатов нет своих входящих ссылок, то в GWT остался список ссылок с других сайтов на «каноничные» страницы. Стоит, однако, учитывать, что этот способ относится скорее к серым методам, и потому рекомендовать его нельзя.

11. Влияние разнообразного текста анкоров на ранжирование

Суть эксперимента: алгоритм Penguin затронул немало сайтов, на которые были проставлены ссылки с одинаковым текстом анкора. Задачей эксперимента было проверить, как сказывается на ранжировании использование варьирующегося текста.

В порядке эксперимента был создан новый сайт на WordPress с шестью статьями, посвящёнными кредитному статусу. Затем была написана серия гостевых постингов с обратными ссылками, содержащими вариации основной ключевой фразы.

Результат: спустя 53 дня после начала эксперимента по основному запросу «650 credit score» сайт поднялся до четвертой позиции в Google. На момент публикации исследования он перемещался между второй и четвёртой позициями.

12. Действительно ли бесполезны ссылки с аттрибутом nofollow?

Суть эксперимента: широко распространённое мнение гласит, что при наборе ссылочной массы надо опираться на обычные ссылки без атрибута rel=»nofollow», иначе эти ссылки будут проигнорированы. Но действительно ли ссылки с nofollow бесполезны?

Исследователи проверили это утверждение на нескольких новых сайтах, ссылки на которые проставлялись с атрибутом rel=»nofollow» в течение пяти недель.

Результат: удивительно, но за этот период рейтинг рос прямо пропорционально увеличению числа обратных ссылок. Несмотря на то, что все эти ссылки содержали указанный атрибут и, скорее всего, по этой причине передавали меньший вес, они всё же учитывались при ранжировании.

13. Действенность инструмента отклонения ссылок в Google Webmaster Tools

Суть эксперимента: мало кому понравилось бы получить от Google предупреждение о том, что на сайт ведёт слишком много спамных ссылок. К счастью, компания создала инструмент дезавуирования обратных ссылок. В рамках эксперимента исследователи проверили, насколько хорошо он справляется с задачей восстановления репутации сайта в глазах поисковика.

Результат: порядка 96% некачественных обратных ссылок удалось снять. Вскоре после этого доступность сайта в Google была восстановлена, а трафик к моменту публикации исследования вернулся на отметку примерно в 50% от прежнего уровня.

14. Соседство текста анкора в сссылках

Суть эксперимента: текст анкора в ссылках несомненно влияет на ранжирование, но как насчет окружающих элементов? Будет ли страница ранжироваться лучше в зависимости от того, где будет помещена ссылка — внутри абзаца текста, рядом с изображением, или просто на пустой странице?

В рамках эксперимента было создано несколько новых доменов, на которые были проставлены четыре типа обратных ссылок:

  • анкор с точной ключевой фразой на пустой странице;
  • анкор с точной ключевой фразой внутри текста;
  • ссылка с картинки, в атрибуте alt которой прописана точная ключевая фраза;
  • текст, содержащий ключевую фразу перед ссылкой с текстом «click me».

Результат: судя по результатам, размещение ссылки действительно имеет значение. Ссылки на пустых страницах едва передавали вес, ссылки внутри текста работали хорошо, а ссылки с картинок — лучше всех.

15. Ссылки в пресс-релизах

Суть эксперимента: нередко можно услышать, что эра пресс-релизов закончилась, и ссылки в них не имеют веса. Так ли это на самом деле?

В порядке эксперимента был написан пресс-релиз с уникальной ключевой фразой в анкоре и ссылкой на блог Мэтта Каттса.

Результат: через три дня после публикации пресс-релиза сайт занял третье место в выдаче по ключевой фразе в анкоре.

Влияет ли структура сайта на его позицию в выдаче?

Вы когда-нибудь задумывались, почему сайт находится на 40-х позициях, хотя дает ответ на поисковый запрос не хуже, чем страницы сайта в ТОП 10?

Почему в выдаче поисковой системы у большинства сайтов из первой десятки есть навигационные цепочки, написанные русскими буквами? А сайты, находящиеся в ТОП 40 и ниже, их не имеют?

Возможно, существует определенная группа факторов, которая играет важную роль при ранжировании? Группа факторов, на которую большинство SEO-специалистов не обращают внимания и считают ее влияние на место сайта в ТОПе всего лишь мифом?

Говоря об этой группе, я подразумеваю структуру сайта. Пользователи, а тем более алгоритмы, по-разному ее воспринимают и определяют. В своем мастер-классе я постараюсь разобраться, влияет ли наличие хорошо структурированных разделов и подразделов на положение сайта в ТОПе, и если да, то насколько это влияние велико.

Из истории мифа

Вопрос о влиянии структуры сайта на его ранжирование возник передо мной еще в 2010 году, когда я начал работать над ресурсом, никоим образом не выделявшемся на фоне конкурентов. Даже наоборот, он уступал им практически по всем параметрам:

  • сайт был моложе других в среднем на 3 — 5 лет;
  • не имел ссылочной массы в принципе;
  • содержал множество технических недочетов и ошибок, таких как большое количество дублей, «битых» ссылок, некорректно работающих скриптов;
  • на страницах товаров и категорий отсутствовали не только релевантные запросам тексты, но даже заголовки и теги Title;
  • основная посещаемость на сайте была из контекстной рекламы (в среднем 500 посетителей в сутки), а из органической выдачи — менее 150 посетителей.

Однако при всех своих недостатках ресурс довольно неплохо ранжировался по конкурентным запросам. 60 из 100 продвигаемых запросов находились в ТОП 30, а 15 СЧ и НЧ запросов — в ТОП 10. Это было довольно странно, так как подобные явления ранее не встречались в моей практике.

Я провел глубокий анализ сайта и выяснил, что он ничем не выделяется среди своих конкурентов, кроме наличия хорошо структурированного каталога товаров.

После реализации технических доработок, исправления некоторых ошибок (настройка индексации в robots.txt, удаление дублей страниц, настройка корректной работы фильтров, создание и размещение карты сайта и т.п.), оптимизации страниц категорий и товаров, размещения текстов сайт стал значительно лучше ранжироваться. По большинству запросов, в т.ч. по некоторым ВЧ, он попал в ТОП 10.

Также на размышления о том, что наличие грамотной структуры ресурса может повлиять на его ранжирование в поиске, навели появившиеся рекомендации Яндекса : «Разделы сайта должны иметь однозначные названия, чтобы посетитель не тратил время на поиски нужной ему информации. Старайтесь писать понятным пользователю языком — не используйте профессиональные термины».

Мнение экспертов

Как уже было сказано, структуру сайта все воспринимают по-своему.

Магазин — это не просто визитка компании, а канал продаж (во многих случаях — единственный), а поисковые системы — один из самых выгодных источников потенциальных покупателей, поэтому от структуры сайта, генерации URL, внутренней навигации и структуры разных типов страниц может зависеть очень многое.

Антон Виноградник, PR-менеджер компании ALTWeb Group, в материале «Оптимизация структуры сайта» высказывает такое мнение:

Грамотная структура сайта не только оставляет у посетителей приятное впечатление о нём, но и благоприятно влияет на ранжирование поисковыми системами.

Дмитрий Силаев, независимый эксперт по поисковому продвижению:

Однозначно можно сказать, что правильная структура сайта влияет на его позиции в выдаче поисковых систем. Ни для кого не секрет, что сайты с правильной структурой гораздо лучше индексируются роботами, да и в целом к качественным сайтам поисковые системы более лояльны. Собственно в этом я не раз убеждался на своей практике, когда после смены структуры сайт значительно улучшал свои позиции в выдаче без каких-либо дополнительных действий по поисковой оптимизации.

Анастасия Бадина, ведущий специалист по поисковому продвижению холдинга Ingate:

О том, что структура сайта влияет на позиции, говорит в своих официальных постах сама поисковая система Яндекс: «Основные проблемы юзабилити сайтов — это отсутствие хорошей навигации, сложная или запутанная структура. ». Соответственно, если ресурс имеет непрозрачную и неочевидную структуру, то найти на нем информацию, товар или услугу становится сложнее, запутавшись, пользователи с большей вероятностью уйдут с такого сайта. Поэтому ПС нет смысла ранжировать высоко ресурс, который не дает возможности посетителю легко решить свою задачу.

Сами поисковики также дают рекомендации по данному вопросу:

Яндекс: «Структура сайта должна быть организована таким образом, чтобы внутри более общих разделов размещались более конкретные».

Google: «Использование описательных названий директорий и страниц на сайте не только поможет вам организовать структуру сайта, но также будет способствовать правильному сканированию вашего сайта поисковыми системами».

Гипотеза о влиянии структуры сайта на его место в ТОПе

Проанализировав всю доступную информацию на эту тему, я выдвинул гипотезу о том, что поисковые системы быстрее индексируют те сайты, разделы которых имеют четкую структуру. Благодаря этому формируются быстрые ссылки (ссылка на эти разделы в поиске). Но самое главное — такие сайты значительно лучше ранжируются.

Но как поисковые системы могут определить, является ли иерархия разделов того или иного сайта верной, какие должны быть разделы и подразделы? Поисковики имеют списки поисковых запросов, вводимых пользователями, которые позволяют построить определенную эталонную модель той или иной тематики. Например, эти запросы можно посмотреть в wordstat.yandex.ru: введя какой-нибудь ВЧ запрос, вам будет доступен список всех запросов, которые его содержат. Именно запросы из этого списка являются подразделами основного запроса. А НЧ запросы, не имеющие своих подразделов, — конечные элементы структуры.

Например: категория «метизы», подкатегории «саморезы», «шурупы», «болты», «винты» и т.п. Для каждой подкатегории — свои товары. Чтобы по запросу «метизы» сайт был в ТОПе, нужно, чтобы на нем были все виды метизов (хотя бы большинство), которые ищут пользователи в интернете.

Не противоречит данная гипотеза и оценке сайта алгоритмами на основе поведенческих факторов. Скорее всего, на эталонных сайтах, имеющих верную с точки зрения алгоритмов структуру и высоко оцененных асессорами, строится модель поведенческих факторов для той или иной тематики. Полноценное раскрытие тематики и ответы на все возможные запросы помогут пользователям найти все, что им необходимо. Например, если задается общий запрос, нужно, чтобы на ресурсе имелись ответы на все его частные подзапросы. Чем больше будет подкатегорий, тем больше людей быстрее найдут именно то, что им нужно.

Проверка гипотезы

Цель эксперимента: выявить влияние четкой иерархической структуры сайта на его положение в ТОПе по конкурентным запросам.

Условия эксперимента: возьмем все сайты, находящиеся в ТОП 5, и шесть ресурсов из ТОП 50 по запросу «мебельная фурнитура».

Ход эксперимента: рассмотрим отобранные сайты и выделим несколько основных признаков, которые непосредственно влияют на ранжирование страницы, составим наглядную таблицу.

Как видно, у 4-х из 5-ти сайтов в ТОП 5 есть четкая структура разделов, подразделов и конечных страниц с товарами. Только у двух сайтов, взятых из ТОП 50, есть подобная структура. Остальные четыре или имеют большое количество разделов, или большое количество товаров. Ни у одного из них нет промежуточных подразделов.

Таким образом, только два сайта из ТОП 50 имеют структуру категорий, подкатегорий и количество страниц товаров, сопоставимую с сайтами из ТОП 5. Но по другим факторам: возраст домена, количество внешних ссылок, наличие в Яндекс.Каталоге, тИЦ и PR — они уступают. Хотя тИЦ и PR лишь косвенно говорят об авторитетности сайтов для поисковых систем, но если это учитывать, то в ТОП 5 большинство ресурсов (4 из 5) имеют высокие подобные показатели. Все анализируемые параметры сайтов легко проверить с помощью анализа сайта в сервисе Rookee.

Несмотря на то, что среди остальных сайтов в ТОП 50 есть и старые (5 и более лет), и имеющие достаточное количество ссылок и вложенную структуру URL, по основным показателям структуры каталога товаров они все же не соответствуют сайтам из ТОП 5.

Вывод: Как видно на примерах, на первых местах выдачи находятся сайты, имеющие хорошо структурированный каталог товаров, услуг или информационные разделы. Конечно, чтобы попасть в ТОП 10 и удержаться в нем, мало иметь лишь правильную структуру сайта. Безусловно, нужно проводить качественную оптимизацию ресурса, чтобы он четко давал ответы на запросы пользователей.

Рекомендации

Помимо создания хорошей структуры разделов, необходимо сделать ее видимой для поисковиков. Для этого есть несколько способов:

  1. Создать вложенные URL страниц, содержащие в себе полный путь с главной страницы, URL страниц категорий и подкатегорий.
  2. Настроить отображение меню «хлебных крошек» в соответствии с иерархией разделов и вложенностью URL страниц.
  3. В основном меню сайта структурировать расположение разделов и подразделов.
  4. Давать краткие названия разделам, вложенным подразделам, товарам и услугам. При этом заголовок h1 страницы должен соответствовать анкору ссылки на эту страницу из основного меню сайта. Из основного меню должна быть только одна ссылка на страницу. Если необходимо несколько ссылок, то нужно сделать у них одинаковые анкоры. Title страницы должен содержать заголовка h1.

После проведенного исследования я вывел основные правила создания структуры сайта, которыми хотел бы поделиться с вами:

  1. Разделы и подразделы должны иметь короткие простые названия в соответствии с общепринятыми фразами, используемыми большинством людей.
  2. Разделы должны содержать по возможности все подразделы, которые могут быть.
  3. Обращайтесь к статистике ключевых слов . Выгрузив все запросы, которые вводят пользователи по той или иной тематике, можно построить почти идеальную с точки зрения алгоритмов структуру сайта. Если это сделать, то ваш ресурс будет давать ответы почти на все неуникальные (вводятся более 1 раза) запросы.

Таким образом, вы получите на сайте четкую структуру разделов с внутренней иерархией, отвечающую на все запросы пользователей!

Что влияет на позиции сайта в выдаче

Привет, Друзья! Итак, вы сделали свой сайт и конечно же хотите, чтобы у него были посетители. Для того чтобы понять, что влияет на позиции сайта в выдаче Яндекс и Google, необходимо разобраться в алгоритмах ранжирования поисковых систем. Но эта задача не из лёгких, так как Яндекс, к примеру, оценивает качество по 1500-м факторам, разобраться в которых, думаю даже работники самого Яндекса не в силах, что уж говорить о нас, простых SEO-шниках. Лично я, считаю, что во все эти дебри лезть не стоит, а нужно учитывать при SEO продвижении своего ресурса лишь основные факторы, которые влияют на поисковую выдачу. Давайте их и разберём!

Что влияет на позиции сайта в выдаче Яндекс и Google

Первое, с чего стоит начинать продвижение любого сайта, это с определения правильности его отображения в браузерах (кросбраузерности), понятности навигации (юзабилити), исключения на сайте критичных HTML ошибок, увеличения скорости загрузки страниц, грамотного составления файлов Robots.txt и карты сайта Sitemap, перевода работы сайта на безопасный протокол HTTPS и создания адаптивного дизайна (мобильной версии). На самом деле, перечень можно продолжать ещё долго, но мы договорились освещать лишь самые важные моменты влияющие на поисковую выдачу.

Если создать изначально «кривой сайт», разместить его на низкокачественном хостинге (как влияет качество хостинга на продвижение), да ещё и с низкой скоростью загрузки, то о хороших позициях в SERP вы можете просто забыть. Это аксиома!

Я очень часто провожу SEO-консультации, на которых выявляю критические проблемы мешающие продвижению сайтов моих клиентов, и как правило, те пункты, о которых я писал выше у них проблемные. Хозяева бизнеса ежемесячно тратят большие деньги на покупку контента, на SEO-продвижение своих сайтов, на ведение групп в социальных сетях (SMM), а клиентов от этого в их бизнесе больше не становиться. Да и не станет, так как сайт изначально был создан с грубыми нарушениями, которые мешают его продвигать в Яндекс и Google. Вот тогда то все и начинают бить тревогу и задавать своим оптимизаторам вопрос: «Когда наш сайт будет первым. ».

Обычно такие мысли начинают приходить в голову, когда за год на продвижение сайта потрачен миллион рублей, а ни одного звонка в компанию не поступило. Тут варианта как всегда два, либо объявлять себя банкротом, либо искать причину неудач.

Когда я анализирую интернет магазины, то в 70% случаев на них не оптимизирована даже главная страница сайта. Отсутствует главный тег H1, метаописание страницы (description) не находиться и Title, который появляется в снипете Яндекса и Google прописан абсолютно безграмотно, а об оптимизации страниц 2-го и третьего уровня я вообще молчу.

Поэтому и нет клиентов, а позиции сайта настолько низки, что он не попадает даже в ТОП 200 по интересующим компанию запросам. Научившись делать элементарный анализ сайта конкурентов, можно понять почему они первые, а Вы последние.

Как Яндекс и Google определяют качество сайтов

Изначально, поисковые роботы анализируют сайт на наличие всего того, о чём я писал выше. Затем формируют поисковую выдачу ТОП 200 (а может и больше), и анализируют её спустя определённое время с учётом поведенческих факторов пользователей. Если на сайте большой показатель отказов, то есть люди попадают на сайт и сразу уходят, то это говорит поисковым системам, что данный ресурс не качественный.

В качестве примера можно рассмотреть два одинаковых сайта с похожими тематиками, например о продвижении сайтов. У одного контент будет очень полезный и состоять из 10 статей, а у другого статей будет 100, но низкого качества. Оба сайта стараются быть первыми и конкурируют друг с другом. Но как правило в ТОП 10 попадает тот WEB проект, на котором контент качественный и полностью отвечает на запросы своих пользователей.


Если клиент долго проводит время на сайте и переходит на его более глубокие страницы, это говорит поисковым роботам о его качестве. В нашем случае поведенческие факторы будут лучше там, где контент качественный и полезный, несмотря на то, что его мало. Сайт с 10-ю статьями со временем будет ранжироваться выше своего конкурента, имеющего 100 статей в своей базе. Как Вы правильно поняли, поведенческие факторы, которые ещё называют пользовательскими факторами, сегодня являются главными критериями определения качества сайтов.

Как только профессиональные SEO оптимизаторы это поняли, они принялись искусственно накручивать поведенческие факторы, обманывая поисковые системы, для того чтобы попасть в ТОП поиска. И по первости у них это получалось. Сайты занимали хорошие позиции и бизнес процветал. Но одного они не учли. Роботов обмануть можно, а живого человека нет.

Все первые позиции ТОП-а, которые были изначально сформированы роботами, проверяют в ручном режиме асессоры тестировщики. Кто такие асессоры и чем они занимаются, я описал в соответствующей статье. Так вот именно они, могут в ручном режиме понизить позиции сайта, если он им не понравиться. Так формируется сегодня ТОП 10 выдачи в поисковиках Google и Яндекс. Причём позиции в ТОПЕ постоянно меняются и несколько раз в сутки.

Анализируя места своего сайта по интересующим меня запросам, я вижу что с утра он находиться на первых местах выдачи в Яндекс, а к вечеру проседает на 3 и 4 места. И так происходит ежедневно. Скорее всего это делается для того, чтобы переодически меняя сайты в ТОП 10 местами, сформировать честные данные по поведению пользователей (время нахождения на сайте, глубину просмотра, коэффициент отказов итд) и в дальнейшем на основании уже этих данных сформировать новый ТОП. Происходит этот процесс постоянно и если перестать заниматься раскруткой сайта, то со временем он вылетит из ТОП 10 и будет откатываться еще ниже.

Что нужно делать чтобы этого не происходило я детально рассказываю на своих онлайн уроках по SEO оптимизации сайта (ссылка в конце статьи).

Надеюсь с этим все понятно. Теперь переходим к самому главному!

Качество контента и его оптимизация

Думаю с понятием «качество контента» всё понятно. Если он будет низкокачественный, то никто долго его читать не будет и это увидят роботы и понизят сайт в выдаче. Тогда вопрос: какой контент является качественным? Отвечаю: тот который в полной мере отвечает на запрос пользователя — (что, как, зачем, почему и сколько). Если вы научитесь писать продающие тексты со структурированным и увлекательным содержанием, то попадание в ТОП 10 и увеличение прибыли в компании не заставят себя долго ждать. Качество контента всегда было и будет первостепенным фактором попадания на первые строчки поиска.

Но ошибочно думать, что просто написав качественный текст Вы заслужите преференции у Яндекса и Гугл. Всё немного сложнее. Тут нужно понимать, что поисковые системы это не живые люди и они ранжируют текст исходя из заложенных в них людьми алгоритмов. Другими словами, нужно писать статьи и для людей и для роботов. Причём обязательными атрибутами для роботов являются метатеги. По качеству их составления и использования в контенте, гуглоботы определяют релевантность заголовка статьи с тематикой и содержанием этой статьи.

Также нельзя забывать и о ключевых словах, вот только плотность их использования последнее время сильно контролируется, такими фильтрами Яндекса, как Баден-Баден. Если ключевых слов будет мало, конкуренты вас обойдут, если много, то попадёте под фильтры и конкуренты снова вас обойдут. Так что же делать, спросите Вы? Отвечу: экспериментировать и ходить по лезвию бритвы! Этим и занимаются профессиональные SEO оптимизаторы, которые имеют 10-летнй опыт раскрутки сайтов и научились обходить фильтры поисковых систем и выходить из под них. Этому можете легко научиться и Вы и в последующем раскрутить любой бизнес.

Друзья, пишите качественные и интересные тексты и грамотно их оптимизируйте, и тогда вопрос ,»что влияет на позиции сайта в выдаче», отпадёт сам собой.

Обучение продвижению сайтов

Для тех кто хочет научиться выводить сайты в ТОП 10 поисковых систем Яндекс и Google, я организовал онлайн-уроки по SEO-оптимизации (смотри видео ниже). Все свои интернет-проекты я вывел на посещаемость более 1000 человек в сутки и могу научить этому Вас. Кому интересно обращайтесь!

На этом сегодня всё, всем удачи и до новых встреч!

Как конкуренты могут понизить позиции Вашего сайта в поисковой выдаче посредством негативного SEO

Задача специалиста по поисковой оптимизации сайта лежит в плоскости продвижения сайта в органической выдаче поисковой системы. Однако по ряду причин позиции сайта в поисковой выдаче могут быть снижены или сайт вовсе может быть исключен из поисковой выдачи.
Важно знать, что позиции сайта могут быть снижены по причине вмешательства третьей стороны.
Разберемся с понятием поисковой пессимизации сайта.

Пессимизация сайта

Пессимизацией документа или сайта называется понижение позиций в поисковой выдаче.

Поисковые системы Google и Yandex понижают позиции сайта по причине борьбы с поисковым спамом. Также поисковые системы не желают делиться прибылью с поисковыми оптимизаторами и поэтому не очень охотно развивают системы обнаружения злонамеренных атак на сайт от третьей стороны.

По объективным причинам понижение позиций сайта конкурентом является возможным.

Ввиду различий в поисковых алгоритмах, набор действий приводящий к пессимизации сайта в выдаче Google и Yandex отличается.

Пессимизация сайта в Yandex происходит ввиду попадания сайта под фильтр поисковой системы или по причине ручных санкций. Преимущественно ручные санкции накладывается по причине агрессивного и явного продвижения сайта внешними ссылками.

Пессимизация сайта в Google также происходит по причине попадания сайта под фильтр поисковой системы или по причине санкций, называемых пенальти. В Google легче происходит продвижение сайта при помощи внешних ссылок, поэтому при умеренном продвижении сайта внешними ссылками санкции можно миновать.

Основанием для снижения позиций сайта в поисковых системах являются разные факторы. Рассмотрим примеры, за что пессимизируют сайты.

Перечень причин для пессимизации:

  • Агрессивная реклама;
  • Тизерная реклама;
  • Всплывающие окна любого характера, включая JavaScript. Поисковые системы выполняют скрипты JavaScript;
  • Продажа ссылок;
  • Блок рекламы в основном содержании документа;
  • Заголовок не соответствует содержанию документа;
  • Контент с большим количеством спама в комментариях.

Часто позиции в органической выдаче снижаются по причине попадания документа или сайта под фильтр или из-за накладывания ручных санкций на продвигаемый сайт. Но также позиции сайта могут быть снижены по причине вмешательства третьей стороны.

Пессимизация документа или сайта в целом может быть применена в отношении кластера запросов или к одному запросу.

Понизить позиции сайта в поисковой выдаче можно при помощи внешнего вмешательства. Подобные манипуляции называются негативным SEO.

Негативное SEO сайта конкурента явление частое и используется на всех конкурентных рынках.

Цена на услуги по понижении сайта может составлять $1 000 и выше.

Негативным SEO документа или сайта называется комплекс мер по негативной поисковой оптимизации.

Негативное SEO применяется для понижения позиций документа или сайта в целом в поисковой выдаче.

При продвижении в сегменте с высокой конкуренцией использование негативного SEO является обычным делом.

Понизить сайт конкурента в поисковой выдаче достаточно просто. Для влияния на позиции сайта конкурента разработаны специальные инструменты, разработаны тактики и программное обеспечение. Также есть сервисы и для отражения атаки на сайт.

Как конкуренты могут понизить позиции сайта в поисковой выдаче

Есть ряд способов для понижения позиций конкурентного сайта в поисковой выдачи. Рассмотрим основные способы, используемые на практике для понижения позиций сайта в поисковой выдаче.

Способы понизить позиции сайта в выдаче:

  • Понижение сайта в выдаче, если есть доступ. Размещение вируса на сайте;
  • Ферма ссылок. Манипуляции с внешним ссылочным профилем;
  • Скрапинг. Применение DMCA;
  • Агрессивный краулинг. Качественное уменьшение скорости загрузки сайта;
  • Манипуляции с сателлитами

Понижение сайта в выдаче, если есть доступ

Полный доступ к сайту можно получить разными способами.

Если есть доступ к сайту, понизить сайт в выдаче поисковой системы достаточно просто. Достаточно разместить на сайте специальный код, воспринимаемый поисковыми системами как вирус.

Также сайт может быть взломан, а содержимое сайта изменено так, что изменения трудно заметить без использования инструментов.

Например, спам может закрываться от пользователя и отображаться только при просмотре кода поисковым краулером. Также злоумышленник может перенаправить трафик продвигаемого сайта на свой сайт и таким образом воспользоваться трафиком.

Еще можно использовать редиректы, ведь если Google видит редиректы на внешние сайты с внутренних страниц, то будет накладывать санкции на сайт.
Сайт может быть исключен из поисковой выдачи, если злоумышленник получит доступ к файлу robots.txt.

Негативное SEO

Поисковая система принимает жалобы и на контент, который нарушает действующие законы. Поэтому разместив запрещенный контент на сайте можно удалить сайт из выдачи.
К снижению позиций может привести следующий контент:

  • Обман пользователя;
  • Использование чужих логотипов, названий и марок;
  • Страницы выдающие себя за официальные страницы знаменитостей или копирующие профиль реальных людей из социальных сетей;
  • Любые документы, пытающиеся манипулировать пользователем;
  • Поддельные контакты;
  • Недостоверная информация;
  • Непроверенная информация;
  • Несуществующие авторы контента;
  • Страницы маскирующие рекламу под основной контент;
  • Страницы с контентом про конспирологию;
  • Сильно отвлекающие объявления;
  • Кликбейт, сенсационные заголовки для увеличения числа кликов;
  • Всплывающие окна;
  • Элементы мешающие прокрутке;
  • Реклама непристойного содержания;
  • Элементы раздражители;
  • Скопированный текст;
  • Искажение фактов;
  • Страницы без редактирования;
  • Страницы без ссылок на источники;
  • Заполнение материала отвлекающими картинками или другим мешающим чтению контентом;
  • Злоупотребление общеизвестными фактами и использование общих фраз типа «ни для кого не секрет»;
  • Негативные комментарии на сайте и внешних ресурсах.

Подробнее про оценку сайта со стороны Google в статье на сайте Ombm по ссылке далее — Как сотрудники Google оценивают сайты.

Злоумышленник может нанести большой урон позициям, получив доступ к сайту. Бизнес должен заботиться о своих сайтах. Конкуренты всегда ищут способы атаковать друг друга. Конкуренция уже достигла уровня, когда конкуренты используют неэтичные способы остаться в топе органической выдачи поисковой системы.
Существует множество способов отражения атаки negative SEO.

Защита от negative SEO атаки на сайт, если сайт взломан

Негативное SEO является реальной угрозой при достижении топа органической выдачи, и оптимизаторы, которые недооценивают этот аспект в SEO, платят дорого за свою халатность.

Регулярный аудит кеша поисковой системы является единственным способом предотвращения подобной атаки. Проверку необходимо проводить регулярно, заранее проведя меры по автоматизации процесса проверки кеша.

Выполнение алгоритмов поисковой оптимизации происходит с определенным лагом, ввиду дороговизны обслуживания поисковой системы Google или Yandex.

При использовании специальных сервисов обнаружить атаку на сайт можно до пессимизации сайта поисковыми системами.
Например, можно настроить сканирование сайта специальными системами. Для проверки сайта на вирусы существует бесплатное решение Manul от Yandex. Также существует проверка от Google — Safe Browsing .

При обнаружении атаки или если позиции сайта в результатах поиска понижены, следует обратиться в поддержку поисковой системы.

Ферма ссылок. Манипуляции с внешним ссылочным профилем

Google Bowling — еще один тип атаки, принцип заключается в размещении плохих внешних ссылок для нанесения удара по позициям сайта конкурента в выдаче поисковой системы. Google накладывает санкции на сайты за покупку ссылок. Недобросовестные оптимизаторы поняли, что ссылки можно использовать против сайтов конкурентов, покупая ссылки низкого качества на сайт конкурента.

Размещая ссылки на плохих площадках можно понизить рейтинг сайта. В результате, Яндекс и Гугл могут понизить позиции сайта в поисковой выдаче.

Также может быть использована ферма ссылок. Фермой называется группа взаимосвязанных сайтов с одним и тем же контентом. Сайт, подвергшийся нападению с использованием фермы ссылок, может быть никак не связан с фермой.

Злоумышленник может включить ключевое слово продвигаемого сайта в анкор-лист ссылок, чтобы ссылочный профиль выглядел как манипуляционный, и сайт подпадет под санкции из-за фермы ссылок.

Защита от атаки на ссылочный профиль сайта

Проверznm внешние ссылки. После определения списка плохих ссылок, для отражения атаки следует отправить список ссылок в Google Disavow Tool для дезавуирования ссылок.

Скрапинг. Применение DMCA

Скрапингом называется процесс копирования контента с сайтов и последующее использование на других сайтах. Подобный контент поисковые системы отмечают как копии, поскольку текстовое содержимое, скопированное с одного сайта, используется без каких-либо изменений на другом сайте.

Поисковые системы накладывают санкции на сайты со скопированным контентом.

Но популярные поисковые системы Google и Yandex могут не точно определить основной источник контента. Конкуренты используют скрапинг в качестве оружия против сильных соперников в поисковой выдаче.

После публикации копии, злоумышленник также может подать жалобу в DMCA. В жалобе указывается, что именно сайт конкурента скопировал контент, а не наоборот. После рассмотрения, документ первоисточник может быть исключен из выдачи.

Защита от скрапинга

Использовать меры защиты именно от процесса копирования контента практически нет смысла. Способ скопировать контент найдется.
Что оптимизатор может сделать, так это найти копии контента со своего сайта в интернете и далее сообщить об этом Google и подать жалобу в DMCA первым.
Ссылка для подачи жалобы на сайте Google — Google DMCA
Если было скопировано размещенное на YouTube видео, жалоба принимается по следующей ссылке — Авторское право на YouTube
Раннее обнаружение и уведомление о копии контента — единственный способ избежать наказания.
Для доказательства о первоисточнике при подаче жалобы можно предоставлять ссылку на страницу из архива .

Агрессивный краулинг. Качественное уменьшение скорости загрузки сайта

Конкуренты часто нападают на сайты используя технологию агрессивного краулинга или DDoS.

При агрессивном краулинге сайт регулярно и постоянно сканируется роботом, что приводит к нагрузке на сервер. После применения атаки, сайт начинает открываться с большим лагом.

Атака приводит к тому, что краулер Googlebot перестает получать доступ к сайту, и Google просто удаляет сайт из поискового индекса, отметив что сайтнедоступный.

Защита от агрессивного краулинга

Если вы обнаружили, что сайт начал открываться долго, то стоит немедленно обратиться к администратору сервера и проверить источник нагрузки.

Вы можете оперативно провести обнаружение атаки и исключить источник атаки на сайте посредством файла .htaccess.

Манипуляции с сателлитами

Добиться полного удаления сайта из выдачи можно путем манипуляционного использования сети сателлитов.

Для исключения сайта из выдачи достаточно создать множество сайтов сателлитов, разместить на сайтах сателлитах скрытый от поисковой системы рекламный блок c рекламой сайта конкурента и отправить жалобу в поисковую систему Google посредством формы — Google Spam Report .

Graphic Designer

Duis autem vel eum iriure dolor in hendrerit in vulputate velit esse moleste conseuat ven nulla facilisis at vero eros et accumsan et iusto odio dignissim qui blandit praesent upta. gue duis dolore te feugait nulla facilisi. Nam liber tempor cum soluta.

Romana Nasrin Reply

Graphic Designer

Duis autem vel eum iriure dolor in hendrerit in vulputate velit esse moleste conseuat ven nulla facilisis at vero eros et accumsan et iusto odio dignissim qui blandit praesent upta. gue duis dolore te feugait nulla facilisi. Nam liber tempor cum soluta.

Leave a comment

Интернет-агентство полного цикла. Создаём проекты и берём их на продвижение, сопровождение и поддержку.

Информация и цены, представленные на сайте, не являются договором публичной оферты.

Как влияет мобильная версия сайта на позиции в поисковых системах

В зависимости от занимаемой ниши, роль смартфонов и планшетов при поиске ответа на какой-либо возникающий вопрос или нахождение необходимого товара в интернете стремительно растёт вверх. Если ещё лет 5 мобильные устройства составляли лишь 10-20% устройств, с которых осуществлялось взаимодействие с веб-ресурсами в интернете, то на текущий момент времени наблюдаемая картина становится совершенно другой. Для многих сфер деятельности более 60% трафика на веб-сайте идет напрямую с мобильных гаджетов.

Почему мобильные телефоны стали так сильно популярными для поиска информации в интернете?

В-первую очередь, это удобство и быстрота. Не нужно включать персональный компьютер и ноутбук, ждать пока загрузиться операционная система. Просто берешь и вводишь интересующий запрос в поиске «Яндекс» или «Google».

Логично предположить, что столь бурное развитие технологий нашло отражение и в алгоритмах ранжирования поисковых систем. Если задать «ключевик» в каком-либо поисковике, можно заметить разницу в ранжировании при использовании десктопного устройства и смартфона в органической (естественной) выдаче, т.е. в той, которая никак не связана с рекламной деятельностью.

Например, введем в поисковой системе «Яндекс» запрос «Купить кирпич клинкер» с ПК.

Теперь сделаем аналогичное действие с мобильного устройства.

Если внимательно приглядеться, можно заметить небольшую разницу в выдаче в двух разных вариантах.

Чтобы убедиться в том, что это не только особенность одного лишь «Яндекса», введем тот же поисковый запрос в другой системе – «Google».

Можно заметить и в «Гугл» небольшую разницу в ранжировании. Забегая вперед, можно сразу отметить, что отличия незначительные и возникают только из-за высокого уровня конкуренции в данной нише (что послужило поводом для ставки на качество интернет-сайтов) и проработки у всех участников на веб-сайтах адаптивности (подстройки под используемый тип устройства смартфон/планшет/персональный компьютер).

Если у продвигаемого сайта отсутствует данная «способность» или не реализована отдельно мобильная версия, из данных выдачи поисковой системы на мобильных устройствах, сайт с одной лишь десктопной версией может и вовсе выпасть или показываться далеко за пределами первых 50-ти позиций.

Что влияет на ранжирование веб-сайтов в органической выдаче на мобильных устройствах?

В первую очередь, это поведенческий фактор, который на текущий момент оказывает колоссальное влияние на выдачу в поисковых системах. Его суть заключается в том, что любой продвигаемый веб-ресурс должен быть максимально удобным для интернет-пользователя.

Введя запрос: «Где сделать стильную прическу», человек хочет получить сразу: узнать адрес (при чем как можно ближе к своему дому или работе), посмотреть примеры работ, получить конкретные предложения со стоимостью.

Сайт, отражающий данные сведения более лучшим образом, при его грамотно проработанной технической составляющей и конкретным контентным содержанием, получит наилучшую позицию в органической выдаче, так как удовлетворяет интересам и ожиданиям посетителей.

С точки зрения поисковой системы, важнее всего удовлетворить пользовательский спрос, так как именно от этого будет зависеть «привычка» пользования именно им. Для этого интернет-ресурс должен быть абсолютно релевантен тем запросам, по которым осуществляется его продвижение.

Многие могут подумать, а при чем здесь мобильная версия сайта и поведенческий фактор?

Если у веб-ресурса не проработано отображение на смартфонах и планшетах, он неудобен для использования посетителями, что обязательно отразится в виде роста процента отказов (доли людей, уходящих в течение 15 секунд и посетивших менее одной страницы), уменьшения глубины просмотра, среднем времени сеанса взаимодействия с ресурсом. Логично предположить, что это в обязательном порядке отразится и на ранжировании данного сайта в поисковых системах «Яндекс» и «Google».

Стоит упомянуть и о влиянии быстродействия на ранжирование сайтов в поисковиках. Под данным термином понимается скорость загрузки веб-страниц сайта (особенно главной страницы). Чем этот показатель лучше, тем больше шансов получить наибольший «вес», который скажется на ранжировании интернет-ресурса в поиске.

В случае с мобильными устройствами влияние данного фактора ещё выше, так как многие пользователи для выхода в интернет используют 3-G/4-G интернет, который не всегда отличается в лучшую сторону своей скоростью передачи данных.

Представьте, что при медленной соединении интернета посетитель зайдет на сайт, страница которого будет весить 30-40 Мб вместе со всем контентом. Сколько будет идти по времени загрузка страниц? Вероятнее всего человек не дождется полной прогрузки и покинет веб-ресурс, что сразу же отразится на росте отказов и, соответственно, ранжировании в естественной выдаче.

Компания «Google» «рекомендует», чтобы страницы веб-сайтов грузились по времени не дольше 1,3 секунд, что получило отражение в её отношении к «тяжелым» источникам (например, крупные порталы).

Если использование «адаптивки» информационного сайта снижает быстродействие в худшую сторону, а разработка мобильной версии является задачей весьма трудозатратой, стоит обратить внимание на «Турбо-страницы» от «Яндекса» и «Ускоренные мобильные страницы» от «Google», которые позволят не только решить проблему, но и получить дополнительную «лояльность» со стороны поисковых систем, так как «поисковым» IT-гигантам «нравится», когда используют их инструменты и сервисы. Более подробно с данными технологиями вы можете познакомиться в нашем блоге в соответствующих статьях.

Алгоритм индексации и ранжирования веб-сайтов «Mobile-First Indexing».

Внедрение нового видения распределения позиций в естественной выдаче со стороны «Гугл» должно решить важное задачу: раздельное чтение и восприятие мобильных и десктопных версий сайтов со стороны поисковой машины.

Ранее наблюдалась серьезная проблема, когда при запросе со смартфона в «Google» выводилась не мобильная, а десктопная версия веб-ресурса, что приводило к повышению показателя количества отказов и ухода пользователя с него.

Данный алгоритм будет иметь влияние только на сайты, имеющие раздельные ПК и телефонные версии. Для ресурсов, которые «адаптивны» и сами перестраиваются под диагонали экранов различных гаджетов, данное новшество никак не скажется и их ранжирование останется без изменений.

Сейчас «Mobile-First Indexing» находится на стадии бета-тестирования и в ближайшее время начнется его полное функционирование в интернет-поиске.

В целом, если ваша мобильная версия сайта содержит тот же важный контент, что и ПК-версия, текстовая информация дополнена картинками (желательно на максимум облегчить их «вес») с указанием атрибутов alt, присутствуют мета-данные, то беспокоиться и переживать не стоит. Важно, чтобы параметры «title» и «description» были идентичны на обоих версиях для страниц.

После официального релиза в панели «Google Search Console» появятся два индекса, один для десктопного вида сайта, другой для мобильного.

Отношение «Яндекса» к индексации и ранжированию мобильной версии сайта.

Если разместить версию для телефонов на поддомене (например, m.domen.ru) и на основном варианте веб-сайта разместить мета-тег rel=«alternate», «Yandex» её проиндексирует и привяжет к показам при вводе запросов со смартфонов. Каких-либо специфических проблем возникнуть не должно.

Если Вы ранее не учли какой-либо момент из указанных выше, то можно доработать данные аспекты и запустить переобход страниц мобильной версии сайта в панели сервиса «Яндекс Вебмастер». Требуется также создание отдельной версии файла robots.txt и sitemap.xml, так как веб-ресурс находится на поддомене и будет ранжироваться отдельно от «основного».

С точки зрения контента, наполнение мобильной версии веб-сайта должно незначительно отличаться от основной, отсеяв всё лишнее и ненужное. Главный акцент – удобство посетителя при пользовании вашего веб-ресурса со смартфона или планшета. Обычный «копипаст» делать не рекомендуется.

Компания «Яндекс» также рекомендует добавлять кнопку «Перейти на основную версию сайта». Особенно в том случае, когда ПК-вариант веб-сайта содержит информацию в большем объеме.

Если с поисковика пришел человек, использующий телефон, но попал на ПК-версию, стоит продумать вариант его перенаправления на мобильную версию, чтобы снизить процент отказов и, соответственно, улучшить влияние поведенческого фактора на дальнейшее ранжирование. Это можно произвести, добавив в удобном и видном для пользователя месте веб-сайта кнопку «Перейти на мобильную версию сайта».

Заключение

Рассмотрев основные аспекты, связанные с ранжированием мобильных версий веб-сайтов в органической выдаче, напрашиваются следующие очевидные выводы:

релевантность запросу и удобство веб-ресурса для посетителей – это главный критерий успешного ранжирования в «органике»;

введение нового алгоритма индексации «Mobile-First Indexing» от компании «Google», разграничит зоны влияния ресурсов на мобильную аудиторию и десктопную, что заставит многие виды бизнеса «трансформировать» дальнейшее развитие своих веб-ресурсов, как в ПК-направлении, так и в «мобильном»;

для успешного ранжирования в «Яндексе» важно размещение варианта для смартфонов на поддомене, составление отдельных файлов robots.txt и sitemap.xml, указание мета-тега rel=«alternate» на основной версии;

требуется постоянная работа над повышением быстродействия (скорости загрузки страниц) сайта, иначе можно получить большой процент ухода посетителей с веб-ресурса, что негативно скажется на занимаемых в «органике» позициях;

для ресурсоемких и «тяжелых» информационных сайтов, которые ещё не имеют мобильной версии, стоит обратить внимание на «Турбо-страницы от Яндекса» и «Ускоренные мобильные страницы» от «Google».

Топ-пост этого месяца:  За возможность комментирования на Mail.Ru придется заплатить
Добавить комментарий