Google запустил обновление основного алгоритма June 2020 Core Update


Содержание материала:

Core Update: Обновление Google За Сентябрь (2020) Года

Еще одно большое обновление Google? Core Update: Обновление за сентябрь 2020 года

Здравствуйте, уважаемые друзья и гости блога Pribylwm.ru! Вы знали, что произошли изменения в алгоритмах Гугла, а именно в Core Update? Нет?! Тогда мы сейчас узнаем об этом практически первыми! Поехали …

Немного истории

Время от времени — с некоторой регулярностью, тема обновлений алгоритмов Google появляется на обоях популярных SEO-групп. На самом деле, Google постоянно совершенствуется, меняется, но это часто настолько небольшие изменения, что они обычно остаются незамеченными. Если они не видны невооруженным глазом, такие как карусели локальных пакетов или значки в строке поиска. Или они не относятся к обновлению основного алгоритма поисковой системы, называемому «широким обновлением ядра». Это имело место в июне и даже раньше — в марте 2020 года. На интернет-форумах и в SEO-группах было много догадок, вопросов и различных анализов. А теперь о вчерашнем обновлении Core Update …

Не так давно Google сделал обновления алгоритма поисковой системы. Как мы и предсказывали, июньское обновление — не последнее слово Google в этом вопросе, потому что следующее обновление было объявлено вчера (24 сентября).

Обновление за сентябрь 2020 года

В данном случае мы не говорим о небольших изменениях, потому что Google внедряет их почти каждый день — речь идет об Core Update, который является основным алгоритмом поисковой системы. Сам факт того, что Google объявляет о внедрении изменений, которые он делал только в исключительных случаях, означает, что, скорее всего, готовится что-то «большое». Предполагается, что весь процесс внедрения изменений займет несколько дней. Что изменится, кто выиграет, а кто проиграет — мы узнаем через некоторое время.

Вот теперь Вы в курсе событий произошедших у Google 24.09.2020, а именно обновление алгоритмов Core Update. Всем удачи и благополучия! До новых встреч!

Google запустил апдейт

2 июня команда Google в своем официальном Twitter-аккаунте объявила о запуске широкого обновления основного алгоритма, которому дала название June 2020 Core Update. Запуск начнется сегодня.

Обновление рядовое, поисковик проводит такие один-два раз в год, поэтому честным оптимизаторам беспокоиться не о чем.

Особенных рекомендаций нет, ничего делать не нужно. Как и в прошлый раз, Google советует перечитать инструкции для асессоров, чтобы понимать, какой контент считается качественным, и улучшать свой проект.

Выводы об алгоритме лучше делать спустя одну-две недели, пока обновление вступит в силу.

Запуск Google June 2020 Core Update был завершён 8 июня

Сотрудник Google Дэнни Салливан подтвердил в Twitter, что запуск последнего обновления основного алгоритма был завершён 8 июня.

Also the core update is rolled out now.

Google приступил к запуску апдейта 3 июня. Чтобы распространить его по всему миру, компании понадобилось 5 дней.

Судя по предыдущим апдейтам, внедрение таких крупных
обновлений может занимать до двух недель.

С ранними данными по Google June 2020 Core Update можно ознакомиться здесь. От обновления также сильно пострадали некоторые крупные СМИ, такие как Daily Mail и CCN.

Google
не предоставляет информации о том, какой процент запросов охватывают эти
апдейты, как это было в случае Panda или Penguin,
но информирует о них, поскольку они являются «заметными».

Напомним также, что на запуск обновления основного алгоритма
наложился
другой апдейт, призванный обеспечить большее разнообразие доменов в SERP. Он был
внедрён в период с 4 по 6 июня.

Как Google убил CCN? Анализ апдейта Google в июне или почему закрывается новостное издание?

В июне было запущено крупное обновление основного алгоритма Google («June 2020 Core Update»). Апометр «Пиксель Тулс» зафиксировал значительное изменение выдачи 4 июня, но в целом масштаб последствий показался некритичным.

Увы, только на первый взгляд. На примере CCN (интернет-издание, публикующее новости о криптовалютах) посмотрим, как апдейты Google способны навредить нашему трафику. Оригинал статьи доступен по ссылке.

Поисковый трафик

В ночь с 3 на 4 июня поисковый трафик с мобильных устройств на сайт CCN упал на 71%.

Видимость сайта по широкому ядру до апдейта взобралась на самый пик и обрушилась за несколько часов — с 1.2 до 0.6.

На графике заметно, что в 2020 году видимость опускалась и ниже, но с тех пор CCN расширили штат сотрудников и в целом наблюдали рост показателей.

После апдейта ежедневный доход компании снизился на 90% (издание зарабатывает на рекламе).

CCN обратились за помощью на форум вебмастеров Google, но в ответ получили лишь несколько технических советов и теорий. Проблема в том, что это не единственный пострадавший сайт в тематике криптовалют. Например, CoinDesk, новостник-лидер, потерял 22,1% трафика с мобильных устройствах:

Поисковый трафик Cointelegraph также сократился на 21,1%.

Крипто-преследование от Google?

И да и нет. Большинство крупных сайтов в тематике криптовалют действительно пострадали от апдейта в июне, но список потерпевших ими не ограничился. В основном апдейт затронул новостные ресурсы. Вот кому досталось больше всех (правый столбец показывает на какой процент упала видимость сайта в Google):

Рэнд Фишкин в недавнем интервью для SEOnews отметил, что издания вида Mercola и Dailymail действительно «извергали кучу ужасной, вводящей в заблуждение и опасной информации».

Тема довольно активно обсуждается, и специалисты называют в качестве причин как контент и скорость сайта, так и рекламу или политическую направленность изданий. Но по мнению Барри Шварца — всё это лишь «спекуляции и теории». Пока Google их не подтвердит, остаётся только предполагать и пытаться анализировать.

Your Money Your Life

Одно из основных предположений в печальном кейсе CCN — пессимизация некачественного ресурса, затрагивающего финансовую безопасность или здоровье пользователей (YMYL-сайт).

В таком случае, уровень доверия к проекту Google определяет показателями E-A-T (экспертность, доверие, авторитетность). Как раз это и странно — у CCN с авторитетом всё должно быть в порядке.

Компания была основана летом 2013 года. В течение 6 лет сайт был на виду и привлекал наибольший объём мирового трафика в тематике цифровых валют. CCN даже входили в ТОП-900 самых посещаемых ресурсов в США и в ТОП-2000 по всему миру.

На издание ссылались крупные новостные ресурсы как в Азии, так и в США и Европе. Стратегия компании до апдейта была проста: больше трафика > больше доходов от рекламы > больше ресурсов для привлечения новых кадров > ещё больше трафика.

Финансовая отчётность и бизнес-процессы компании прозрачны, на полках награды в номинации «The Best Cryptomedia», журналисты соблюдают кодекс профессиональной этики и отказываются от спонсируемых сюжетов под видом обычных статей.

Другими словами, для показателей E-A-T всё тип-топ и, похоже, не хватало только статьи на Википедии.

Что насчёт политической направленности? Полная свобода слова, издание беспристрастно, допускает разнообразие политических взглядов, но верно идеалам крипто-сообщества: биткоин был создан как противодействие финансовому кризису, картелям банков и ФРС и должен быть децентрализован.

Несмотря на последний принцип издания, основатель CCN уверен, что Google не может подавлять честную журналистику.

Кто-то теряет, кто-то находит

Пока одни сайты теряют трафик, другие — его привлекают. Таковы правила игры. Ниже мы видим «счастливчиков» июньского апдейта (столбец справа показывает прирост видимости в процентах):

Mirrors.co.uk повезло больше всех. Правда есть одно странное совпадение относительно политической направленности Daily Mail и Mirror:

На скриншоте выше в выдаче Google ответ на вопрос к какому политическому «крылу» принадлежит издание Mirror и ответ: Daily Mail самая «правая» газета, в то время как Mirror относится к «левым». Замешана ли здесь политика? Возможно, но это снова всего лишь теория.

Требования к Google

Основатель CCN, Jonas Borchgrevink, согласен с тем, что Google должны совершенствовать и обновлять свои алгоритмы, но отказывается понимать, почему поисковику разрешаются такие радикальные изменения в течение всего 24 часов, без предупреждения и разглашения деталей апдейтов.

Одним движением Google способен обрубить трафик одним новостным изданиям и поднять посещаемость других. Google контролирует мировое потребление новостей и заявляет, что борется за лучшее будущее журналистики.

Если за одну ночь можно решить, что крупное издание вроде CCN — вредное и некачественное, то почему бы не обрисовать причину и не дать шанс привести сайт в соответствие с требованиями? Люди лишаются работы, издание закрывается, 6 лет работы испаряются.

Такая вот гугломократия. Чтобы её не допустить, CCN опубликовали список требований к Google:

Уведомление вебмастеров о любом крупном апдейте основного алгоритма не менее, чем за 3 месяца с указанием, на что именно направлено обновление.

Если новостное издание находится в зоне риска потери трафика более чем на 20%, должно быть представлено объяснение, причины и рекомендации по устранению несоответствий.

Привлечение национальных правительств тех государств, где Google является ведущей поисковой системой, для создания аполитичных групп, целью которых будет изучение изменений в поиске с целью сохранения свободы слова и прессы, демократии и прав граждан этих государств.

Если Google требует прозрачности от сайтов, пусть и сам станет прозрачнее. Кто, например, отвечает за июньский апдейт? Какой у него номер телефона или адрес электронной почты? Эти данные обязаны быть указаны в новостных изданиях, чтобы ранжироваться в Google News, но, получается, идёт игра в одни ворота.

В общем, свобода прессы уже в опасности, но какую тематику затронет следующий апдейт? Jonas Borchgrevink призывает задуматься и попытаться повлиять на Google. В США уже создана петиция против монополии Google и защиты свободы слова.

В 1880 году американская компания Standard Oil перерабатывала 95% нефти в США. В 1911 году компанию обвиняют в монополии и разделяют на 34 независимых компании. Сейчас Google контролирует 88,47% мирового поискового рынка на десктопных устройствах. Возможно, пора заводить новое дело. Иначе рискуем оказаться в эпизоде «Черного зеркала». А мы тут жалуемся на колдунщики Яндекса 🙂

Если захотите поделиться своим мнением, предложить что-то толковое или просто написать Йонасу, он открыт для общения: jonas.borchgrevink@ccn.com.

CCN MARKETS. Родилась в июне 2013. Умерла в 10 июня 2020. Причина смерти — Google.

Экспертное мнение

Комментирует евангелист проекта «Пиксель Тулс», Дмитрий Севальнев:

Google — коммерческая компания и может ранжировать и понижать сайты как хочет! Или нет?

С позицией тут не может определиться большая часть маркетологов, ведь, с одной стороны, вид SERP и само ранжирование в Google и Яндексе контролируется инженерами коммерческой компании и они вовсе не обязаны отчитываться, предупреждать или как-то ещё работать с представителями сайтов… С другой стороны, когда в спецразмещении появится 5 место с контекстной рекламой, все будут предъявлять претензии поисковой системе, мол, «на каком основании вы это делаете?!».

То же самое и с кейсами выпадения сайтов. Да, был новый алгоритм, да, Google «убил» одну-две крупных компании и, может быть, ещё сотню-другую более мелких, о которых никто и не говорит. Имел ли он на это право?

Адекватны ли вообще требования CCN, чтобы Google предупреждал сайты, которые могут потерять трафик. Если да, то почему коммерческая компания, ориентированная на извлечение прибыли должна это делать и нужно ли каждый день рассылать оповещения сотням и тысячам небольших сайтов, видимость которых меняется на 20% и более каждый апдейт? Или сделать апдейты раз в 2 месяца, чтобы все могли подстроиться? Всё это довольно риторические вопросы. Очевидно, в текущей экосистеме это нельзя реализовать.

Топ-пост этого месяца:  Лиды и лидогенерация что это такое, лиды в продажах, стоимость

Проблема тут в том, что Google и Яндекс много вкладывают в PR и желание выглядеть более открытыми и человечными, чем они есть на самом деле. Рынок в это верит, а потом возникает когнитивный диссонанс, мол «ну они же хорошие ребята, как так, почему?».

Вывод понятен: поисковая система ориентирована на извлечение прибыли из той аудитории, которой она владеет. Это основная задача, которая не имеет ничего общего с теми требованиями, которые предъявляет CCN или любой другой представитель просевшего сайта или погибшего бизнеса.

Если хочется поменять правила игры, то все требования нужно направлять правительствам и ответственным органам внутри стран. Это чудовищно сложный и медленный маховик, который, наверно раскачается в Европе и США 202X.

Старайтесь не лезть на рожон и помните, что поисковая система лишь один из источников трафика. Крайне важный, да, но один из нескольких в вашей маркетинговой стратегии.


June 2020 Core Update – июньское обновление поисковых алгоритмов Google

8 июня Google завершил запуск обновления своих поисковых алгоритмов – «June 2020 Core Update». Некоторые авторитетные сайты остались практически без трафика. Такие серьёзные потери заставили SEO-специалистов задуматься над тем, что высокий показатель «Expertise, Authoritativeness and Trustworthiness» (экспертиза, авторитетность и надёжность; сокращённо – EAT) вовсе не спасёт вас от санкций, несмотря на общепринятые убеждения.

Авторитетные топы потеряли позиции

После обновления алгоритмов под удар попали веб-сайты, которые явно не страдают от нехватки экспертизы, авторитетности, компетентности, репутации или доверия.

Сотрудник Daily Mail, крупного британского новостного издания, обращается за помощью на форуме для вебмастеров Google, так как СМИ серьёзно пострадало из-за обновления поисковых алгоритмов в июне 2020:

Вслед за этим крупный новостной сайт про криптовалюты, CCN.com, сообщает о предстоящей ликвидации, ведь они больше не могут поддерживать работу проекта:

Google June 2020 Core Update, запущенное 3 июня 2020, обрушило мобильный трафик на CCN.com всего лишь за одну ночь на 71%.

Наш ежедневный доход упал более чем на 90%.

В сообщении, объясняющем, почему они закрываются, CCN отметили, что ещё один новостной сайт про биткойны, CoinDesk, также потерял трафик:

Почему простые правки смогли стать причиной огромных просадок в Google, ведь и другие аналогичные сайты испытывают такой же откат? У CoinDesk, лидера в блокчейн-новостях, трафик упал на 34,6%, согласно Sistrix.com.

Является ли доверие проблемой для Daily Mail?

MediaBiasFactCheck.com заявляет, что Daily Mail является ненадёжным источником новостей из-за различных статей с кликбейтом:

Daily Mail имеет тенденцию публиковать истории с использованием сенсационных заголовков с эмоционально насыщенными формулировками, такими как «Рот 63-летней женщины «был осеменён» молодым кальмаром после употребления морепродуктов», что, очевидно, является фальшивкой.

Звучит возмутительно, верно?

Статья основана на реальном инциденте. Официальным источником информации был Национальный институт здравоохранения правительства США. Это не было «явно фальшивой новостью», как сообщает MediaBiasFactCheck. Если бы редакторы MBFC на самом деле проверили статью, то обнаружили бы ссылку на NIH.GOV, где рассказывается правдивая история о том, как кальмар прикрепляется к женскому рту. Это не поддельные новости. Это реально.

Кто такие MediaBiasFactCheck.com?

Это независимая коммерческая организация. Вот цитата из их FAQ:

Media Bias Fact Check, LLC – компания с ограниченной ответственностью, принадлежащая исключительно Дэйву Ван Зандту. Он также принимает все окончательные решения по редактированию и публикации.

Дейв Ван Зандт получил степень по связям с общественностью, прежде чем получить высшее образование. В настоящее время Дейв работает в сфере здравоохранения. Дейв провёл более 20 лет в качестве научного сотрудника по вопросам предвзятости СМИ и их роли в политическом влиянии.

Так что сами решайте, является ли MediaBiasFactCheck надёжным источником.

Что говорит Politifact, лауреат Пулитцеровской премии?

Политифакт – это заслуживающая доверия некоммерческая организация. Вот их страница о Daily Mail, ссылающаяся на кликбейтную статью с цитатой про Брексит:

Это всё, что Политифакт говорит о надёжности Daily Mail. Похоже, они не разделяют мнение MediaBiasFactCheck.

И последнее, на что нужно обратить внимание: вот что говорит Википедия о Daily Mail:

В 2011-2013 году Daily Mail была лидером в Великобритании по числу нарушений «кодекса редактора» по данным Press Complaints Commission. Daily Mail и особенно её электронная версия Mail Online, удовлетворили за 2011—2013 годы рекордное количество жалоб — 339. При этом отмечается, что к жалобам отношение очень серьёзное, ошибки исправляются быстро, опровержения публикуются на видном месте. В результате против Daily Mail и Mail Online в 2013 году не было принято ни одного юридического решения.

В феврале 2020 редакторы английской Википедии признали Daily Mail ненадёжным источником и решили по возможности заменить 12,000 ссылок, подтверждающих информацию, ссылками на другие издания.

Daily Mail получила множество наград, в том числе семь раз с 1995 года получает награду «Национальная газета года» от British Press Awards.

Неужели вторая самая читаемая газета в Великобритании не заслуживает доверия? Это послужило причиной потери трафика? Пожалуй, вы сами сможете сформировать мнение относительно данного вопроса и, если хотите, поделиться им в комментариях.

Ответы на справочном форуме сообщества для веб-мастеров Google

На форуме для вебмастеров Google ничего толкового не написали, как обычно. Одинаковые советы «на все случаи жизни». А если вам такие советы не нравятся, то вас же ещё и говном обольют.

Вот что пишет представитель CCN по этому поводу:

Мы пытались выяснить, почему наши статьи больше не показываются в поисковой системе, попросив помощи на форуме для вебмастеров Google. Хотя мы ценим помощь экспертов с форума Google, их теории о том, почему поисковая система решила «отключить» CCN, по-видимому, не совсем точны.

Среди советов, такие, как, например:

  • Вы просто просите Google помочь вам обойти конкурентов.
  • У вас проблемы с 404-ошибками. Если страница больше не существует на сайте, её нужно либо заменить, либо выдавать пользователю страницу 404-ошибки, но не редиректить его на главную.
  • Страницы с вашего старого домена cryptocoinsnews.com перенаправляют не на те страницы нового домена.
  • На вашем сайте нет официальной информации о действующей организации издательства.

Кто-то им посоветовал просто зарегистрироваться в «Google Мой бизнес».

Но CCN сдаваться не собираются, несмотря на громкие заявления. Сейчас они работают сразу с несколькими командами сеошников, чтобы вернуться в игру.

Daily Mail тоже просили совета на форуме

Кто-то из сотрудников британского новостного сайта также задал вопрос на форуме для вебмастеров Гугла на счёт падения трафа. В ответ получил примерно то же самое. Скорость загрузки сайта, удобство для пользователей, авторство, достоверность и т.п.

Некоторые эксперты написали, что, возможно, Daily Mail продвигали сайт спамными ссылками и были за это наказаны. Другие выдвинули гипотезы по поводу возможных технических ошибок, которые следует найти и исправить. Третьи предложили просто подождать. Четвёртые накинулись на вопрошающего с «аргументами», что ему никто ничего не должен, в том числе и Гугл.

Не знаю, достаточно ли всего этого, чтобы срезать 50% трафика с сайта?

Сам я не очень люблю этот справочный форум. Там большинство ответов можно предсказать ещё до того, как задал вопрос. Все отправляют читать «Quality Raters Guidelines» (руководство для асессоров) или приводят цитаты из него.

Алгоритмы Google не сводятся к рекомендациям по качеству

Обновления поисковых алгоритмов Гугла не могут быть сведены лишь к рекомендациям по качеству. Так почему SEO-специалисты ссылаются только на него в своих ответах?

Дэнни Салливан из Google написал в Твиттере, что Рекомендации по оценке качества могут использоваться как справочное руководство для создания качественного контента.

Want to do better with a broad change? Have great content. Yeah, the same boring answer. But if you want a better idea of what we consider great content, read our raters guidelines. That’s like almost 200 pages of things to consider: https://t.co/pO3AHxFVrV

Он порекомендовал сосредоточиться на создании качественного контента.

Вот ещё один его твит:

We tell lots of things to do. Improve site speed. Consider secure. Etc. But that’s not what this update was about. It’s broad. And respectfully, I think telling people there’s no particular thing to «fix» is indeed helpful. It means, hopefully, they think more broadly…

Мы рекомендуем многие вещи. Улучшить скорость сайта. Обеспечить безопасность. И так далее. Но обновление было не об этом. Всё намного шире. И при всём уважении, я считаю, что самое полезное в данной ситуации, это говорить людям, что «чинить» тут ничего не нужно. Это означает, что мы надеемся на то, что они будут мыслить более широко…

И за этим последовало…

Хотите добиться большего? Создавайте классный контент. Да, всё тот же скучный ответ. Но если вы хотите получить лучшее представление о том, что мы считаем отличным контентом, ознакомьтесь с нашими рекомендациями для асессоров. Это почти 200 страниц, на которые следует обратить внимание…

Как кто-то верно подметил в комментариях к твиту, Рекомендации по оценке качества предназначены для создания контента, а не для диагностики того, почему сайт больше не занимает место в поисковой выдаче:

I have read the guide. I put the guide into every presentations I do on algorithms. I tell people to read the guide. I give the guide to every client.

The guide is GREAT for creation guidelines, not diagnostics.
Especially if you just dropped off the map.

Рекомендации по оценке качества не являются диагностическим инструментом

Руководство по оценке качества полезно. Но алгоритмы Google не просто проверяют, проходит ли страница тест «на качество». Миссия Google состоит в том, чтобы упорядочить информацию со всего мира и сделать её общедоступной и полезной. Качество веб-страницы является одной из составляющих алгоритма. Основной же его частью выступают актуальность и полезность для пользователя, делающего поисковый запрос.

Таким образом, если сайт просел в поисковой выдаче, качество контента может быть одной из причин. Но основным вопросом в таком случае является то, почему сайт больше не релевантен запросам пользователей. Алгоритм Google направлен на поиск и отображение наиболее релевантного контента, независимо от ошибок в коде сайта или наличия у автора статьи контактной информации, указанной где-либо.

Опять же, рекомендации для асессоров полезны. Но SEO-сообщество явно движется по неправильному пути, так сильно полагаясь исключительно на них, при поиске ответов на вопросы, связанные с алгоритмами ранжирования. В продвижении сайтов под Гугл есть множество других нюансов.

  1. Руководство для асессоров – это не универсальная шпаргалка по SEO.
  2. Алгоритмы Google намного сложнее, чем пресловутые «экспертиза, авторитетность и надёжность».

Рекомендации по оценке качества не являются шпаргалкой для диагностики

Рекомендации по оценке качества – это в основном документ о качестве веб-страницы. Качество страницы очень важно, с этим никто спорить не будет. Но в топе Гугла страницы находятся не потому, что они высокого качества. Google формирует топ таким образом, чтобы люди находили актуальные и полезные для себя сайты.

В среде SEOшников прослеживается тенденция искать ответы на свои вопросы, касающиеся ранжирования сайтов, в руководстве для асессоров. Это ошибка. Обновление ядра поискового алгоритма включает в себя широкий спектр улучшений, предназначенных для того, чтобы помочь Google понимать поисковые запросы, понимать и оценивать веб-страницы и быть полезным для пользователей.

Качество страницы является лишь одним из факторов ранжирования, коих огромное множество.

Обновление основного поискового алгоритма не ориентировано исключительно на «E-A-T»

Некоторые оптимизаторы продолжают рекомендовать издателям, пострадавшим от обновления алгоритма, добавить больше информации на свою страницу «О нас», добавить больше информации об авторах в статьи, чтобы увеличить свои показатели E-A-T.

Неужели кто-то действительно думает, что для того, чтобы «взломать Гугл», достаточно просто указать свои персональные данные под статьёй?! Видимо да. Как бы нелепо ни звучало, это то, что некоторые «эксперты» на Справочном форуме Google для веб-мастеров предлагали в качестве решения проблемы Daily Mail.

Сосредоточение внимания на E-A-T для решения проблем с обновлениями Google является ошибкой, поскольку в нём игнорируется тот факт, что алгоритм поисковой системы – больше, чем просто экспертность, авторитетность и доверие. Это только три фактора из более чем 200.

Обновление широкого диапазона

Само обновление называется «Broad Core Algorithm Update». Если вы вобьёте в переводчик слово «Broad», то увидите, что оно переводится, как «широкий» или «обширный». То есть переработка имела широкий охват, большое количество элементов было затронуто.


Сводить всё к одной проблеме, будь то «качество контента» или «экспертиза» – довольно глупо.

Исправлять тут нечего

Кроме того, предполагая, что «E-A-T» – это решение проблем с обновлением, «эксперты» игнорируют совет Google о том, что исправлять здесь нечего. То есть опять вступает в дело любимая мантра поисковиков: «с вашим сайтом всё в порядке».

С одной стороны, стоят SEO-специалисты и дают рекомендации пострадавшим владельцам веб-сайтов о том, что им нужно исправить. С другой стороны, стоит Гугл и говорит, что исправлять нечего. В любом случае, кто-то из них прав, а кто-то ошибается.

Ответ Google о том, что на вашем сайте ничего не сломано, является серьезной подсказкой. Так зачем игнорировать его?

«На вашем сайте ничего не сломано» – что это значит?

  • Раз на вашем сайте ничего не сломано, то не ждите результатов от своих действий по исправлению чего-либо.
  • Если всё в порядке, то нет никаких проблем с компетентностью, авторитетностью или доверием.
  • «Нечего чинить» означает, что Гугл делает что-то большее, чем просто выявляет сигналы о ненадлежащем качестве.
Топ-пост этого месяца:  Урок 3. Препроцессор Sass. Переменные и вложенность

Что может означать этот совет от Дэнни Салливана из Google (по мнению Роджера Монтти, SEO-специалиста с 20-летним стажем):

  • Гугл улучшает процесс языковой обработки.
  • Гугл улучшает систему обработки ссылок.
  • Гугл улучшает понимание поисковых запросов.
  • Гугл улучшает понимание отдельно взятых частей веб-страниц.
  • Гугл повысил скорость, с которой он обнаруживает некачественные ссылки и начинает их игнорировать.

Существует множество областей, в которых Google мог произвести изменения. И если разбираться детально, такие изменения могли повлиять на работу тысяч кусочков алгоритма. Если список такой большой, почему SEO-специалисты упорно продолжают обсуждать только качество контента, экспертность, доверие и авторитетность?

Как видно из тяжёлого положения крупных сайтов, таких как CCN и Daily Mail, идея о том, что июньское обновление поисковых алгоритмов Google может быть сведено к четырём факторам ранжирования, бесполезна.

При дальнейшей диагностике полезно будет расширить набор факторов, на которые стоит посмотреть. Лучше всего начать с самой поисковой выдачи. Ведь как можно диагностировать проблему ранжирования, не глядя на результаты поиска?

В статье использовались материалы с сайтов searchenginejournal.com, ccn.com, support.google.com, politifact.com, nih.gov, mediabiasfactcheck.com, dailymail.co.uk.

ПОНРАВИЛАСЬ СТАТЬЯ? ПОДЕЛИСЬ С ДРУЗЬЯМИ!

Что было с Google в июне — статистика обновлений

Преамбула: 5 июня Google начал обновлять свой основной алгоритм, вместе с ним поработал над разнообразием результатов в поисковой выдаче. Разбираемся вместе, что к чему.

Информацию вначале предоставили SEO-сервисы, включая Sistrix, RankRanger, Moz, SearchMetrics, потому что они работают с данными проиндексированных страниц.

Данные от сервисов

Sistrix

Заметили следующее влияние обновления ядра. На скриншоте — срез британского индекса Google по количеству страниц:

Также есть список сайтов, которые улучшили свои позиции:

И которые ухудшили:

Йоханнес Беус: “Google впервые заранее проанонсировал обновление своего алгоритма. Апдейт повлиял на большее количество сайтов, чем предыдущие обновления. Мы заметили, что попали под апдейт много сайтов YMYL, новостных ресурсов, сайтов розничной торговли. Отмечу, что после 24 часов произошли значительные изменения, а значит, с течением времени они окажутся еще сильнее”.

RankRanger

Измерил результаты поиска по США. Вот первичные результаты, которые они собрали:

Сильно пострадали ниши гемблинга, здравоохранения и финансов. Согласно данным, многие сайты колебались вверх-вниз, но много позиций не потеряли.

SearchMetrics

Маркус Тобер заметил, что возвращены некоторые элементы из мартовского обновления. Тем не менее, похоже, что Google изменил некоторые факторы ранжирования. Так, в марте заметен сильный акцент на авторитетность бренда, теперь это упразднили. В медицинской сфере ранее авторитетные сайты — webm.com и verywellhealth.com снизили свои позиции.

Питер Майерс заявил в Твиттере, что по наблюдениям некоторые сайты медицинской тематики улучшили свои позиции. А больших сдвигов в SERP не было.

Работает ли коэффициент разнообразия так, как надо

Также Google объявил о работе над разнообразием сайтов в выдаче. Это обновление интересно тем, что мы можем напрямую это измерить.

Краткий ответ: технически Google действительно улучшил разнообразие, но обновление было очень узко направленным. Поэтому пришлось копать и копать, чтобы найти подробности.

Как в действительности улучшилось разнообразие

Используя набор из 10 000 ключей MosCast, мы рассмотрели среднее разнообразие по поисковой выдаче на первой странице. Проще говоря, посчитали, сколько уникальных поддоменов было на каждой странице. На первой странице — не менее десяти обычных результатов, в частности, отношение уникальных поддоменов к общему числу органических результатов. Вот график:

Разнообразие сайтов в 90% значит, что 9 из 10 поддоменов — уникальны. Увидеть трудно, но с 6 по 7 июня среднее разнообразие улучшилось с 90,23% до 90,72%. Тренд можно увидеть с течением времени на шкале:

Видим, что большая часть изменений произошла за один день и осталось таковой.

Было ли улучшение точечным?

Для справедливости, рассмотрим утверждение от Google:

Т. е. Google может улучшить наихудшие сценарии. Но это станет понятно не сразу из-за усреднения данных по выдаче.

Мы можем выделить ситуации с более чем двумя ответами от одного сайта, если обратим внимание на результаты выдачи с оценкой разнообразия 80% и выше. Вот график за 30 дней:

6 июня 84,58% сайтов имели степень различия 80% и выше. 7 июня показатель вырос до 86,68%.

Сравнение количества дублей одного сайта

Одна точка на графике ничего не говорит о том, что происходит в каждом из сегментов. Для анализа я хочу вычислить точное количество дубликатов. Еще одно осложнение — когда два сайта имеют не один результат в органике. Это снижает разнообразие в выдаче, но не значит, что один сайт предпочтительнее другого.

Давайте посмотрим на количество “доминирующих” сайтов по числу дубликатов среди 10 000 результатов поиска.

Для чуть более половины SERP не было дубликатов. После обновление это число не сильно изменилось. Количество сайтов с двумя результатами (т. е. 1 дубль) увеличилось после апдейта.

Мы по-прежнему видим результаты, где доминирует один сайт. Это не сильно изменилось. Если посмотреть на ключевые слова, то ключи, по которым у сайта более 4 позиций в выдаче, как правило — бренд-запросы и навигационные.

При оценке разнообразия сайтов следует быть осторожным. Как ни странно, все равно есть случаи, когда один домен доминирует над остальными.

Результаты в верхней части указывают на коммерческие намерения, в нижней — сочетание коммерческого и информационного интента. У Amazon есть блок из пяти результатов по продукту, и это не тот случай, когда в запросе указана торговая марка или навигационные цепочки (я не имел никакого интереса к Amazon).

Конечно, мы можем сказать, что Google не решил проблему. Но что нам говорят более широкие результаты? Справедливо отметить, что некоторое улучшение было, оно подкреплялось официальными заявлениями Google. Количество результатов с тремя-пятью результатами от доминирующего сайта уменьшилось, но в большинстве случаях в них еще было два результата от одного сайта.

Даже если выделить это изменение, оно довольно небольшое. А SERP с 6 — 10 результатами остались без ощутимых улучшений. Это может быть связано с тем, многие запросы относятся к сильному бренду, а количество дубликатов от 6 до 10 и так встречалось редко.

Google обновил корневой алгоритм ранжирования сайтов: что произошло и что делать? + Мнения экспертов

Google обновил корневой алгоритм ранжирования сайтов.

Обновление получило название Florida 2. Потенциально это самое значимое обновление за последние несколько месяцев.

Что изменилось и что надо делать?

Когда произошло обновление алгоритма?

Обновление Broad Core Algorithm зафиксировано 12 марта 2020. Google подтвердил обновление алгоритма.

Ожидается, что обновление коснется всех сайтов в интернете, а ввод в эксплуатацию во всем мире завершится в течение нескольких недель.

Изменение трафика после обновления корневого алгоритма Google:

Итак, обновление касается ядра поисковой системы. Алгоритм затрагивает следующие темы:

  • Манипуляции с контентом. Анализ экспертности;
  • Манипуляции с внешним ссылочным профилем сайта.

Если в продвижении сайта использовались белые методы поисковой оптимизации, то можно наблюдать рост позиций в выдаче.

Кстати, сайты внедрившие рекомендации из статьи Как сотрудники Google оценивают сайты показали рост позиций в выдаче, так как улучшили страницы в аспекте экспертности, авторитетности и надёжности.

Далее разберемся с обновлением более подробно.

Что такое Broad Core Algorithm?

У Google есть алгоритмы машинного обучения, вследствие чего изменения в поисковой выдаче происходят в режиме реального времени без участия экспертов.

Google вносит изменения в алгоритм, как минимум, два раза в день, что составляет около 600-700 обновлений в год. Но все подобные изменения являются незначительными и не оказывают массового влияния на сайты и их авторитет.

Но происходят также масштабные обновления корневого алгоритма ранжирования.


Each day, Google usually releases one or more changes designed to improve our results; some are focused around specific improvements, and some are broad changes. Last week, we released a Broad Core Algorithm update.

Изменения в корневом алгоритме ранжирования распространяются на все сайты и выпускаются не так часто, как мелкие обновления ядра.

При подобных апдейтах Google проводит оценку сайтов заново. Подобные обновления оказывают значимое влияние на ранжирование сайтов в органической выдаче поисковой системы.

Что произошло?

В связи с обновлением корневого алгоритма ранжирования по наблюдениям произошло следующее:

  • Потеряли позиции в топе маленькие нишевые информационные сайты, которые ранжируются в основном благодаря контенту;
  • Больше остальных пострадали сайты в тематиках, для которых важную роль играет фактор E-A-T;
  • Произошел возврат позиций для сайтов медицинской тематики, которые пострадали после обновления Google Medic;
  • Понизились в выдаче сайты с токсичным внешним ссылочным профилем;
  • Повысились в поисковой выдаче авторитетные сайты.

Что такое Google E-A-T?
E-A-T означает экспертность (Expertise), авторитетность (Authoritativeness) и надёжность (Trustworthiness) контента.

Исходя из документации поисковой системы, критерии оценки экспертности, авторитетности и надёжности следующие:

  • Материалы на важные темы должны быть созданы аккредитованными экспертами и обязаны регулярно пересматриваться и обновляться;
  • Новости должны быть созданы профессионально согласно правилам и канонам журналистики, обязательно должны содержать факты, а также помогать пользователям в понимании событий;
  • Научные материалы должны быть подготовлены экспертами и основываться на устоявшихся и общепринятых научных фактах;
  • Google E-A-T автора играет ключевую роль для материалов на финансовые и юридические темы. Также E-A-T автора играет ключевую роль для советов по уходу за детьми и ремонту. Материалы по теме хобби также должны быть написаны экспертами.

Если сайт подпадает под категорию YMYL, то помимо страницы поисковая система также оценивает и автора контента. Автор должен быть специалистом в нише. Поэтому следует добавить строку об авторе в статьи. Google стремится проверить подлинность и оценить авторитетность человека, который предоставляет информацию пользователям.

Что такое YMYL?
Google YMYL означает Your Money Your Life. Под YMYL страницами подразумеваются страницы с контентом, который способен повлиять на благополучие человека: материальное, физическое, духовное. В поисковой выдаче подобный контент должен появляться только после проверки на полноту приведенных знаний и авторитетности источника. Google хочет удостовериться, что публикует в выдаче заслуживающие доверия материалы от экспертов отрасли.

В связи с обновлением алгоритма, позиции в топе вернули сайты, которые пострадали от обновления Google Medic:

Как результат, рост видимости сайта:

Аналогичные данные наблюдаются по разным сайтам:

Итак, обновление Google Florida 2 уменьшает силу влияния санкций, применимых ранее к некоторым YMYL сайтам.

В связи с обновлением алгоритма потеряли позиции сайты, которые обладают плохим внешним ссылочным профилем. Сегодня в поисковых алгоритмах делается акцент на машинном обучении в целях понимания следующих аспектов:

  • Интент;
  • Содержание страницы;
  • Поведение пользователей.

Тем не менее исходя из результатов обновления алгоритма понятно, что анализ внешних ссылок является частью основного алгоритма Google, так как аналитика ссылочного профиля является эффективным способом для улучшения результатов поиска.

Исходя из сообщений, которые опубликованы в закрытых группах по черным методам поискового продвижения следуют такие выводы:

  • Понизились в поисковой выдаче сайты, которые использовали автоматические системы линкбилдинга низкого качества;
  • Также были понижены сайты, при продвижении которых была допущена переоптимизация анкор-листа.

Рекомендованные материалы в блоге MegaIndex по теме поисковой оптимизации ссылочного профиля далее:

Google E-A-T Rank

Есть гипотеза о том, что после корневого обновления алгоритма поисковая система начала анализировать внешние ссылки на предмет их качества в плане экспертности, то есть введена определенная ссылочная метрика E-A-T, значение которой рассчитывается для внешних ссылок.

Таким образом для сайтов в нише YMYL поисковая система может минимизировать влияние всех не экспертных ссылок.
К примеру, ссылок из социальных сетей, авторитетных каталогов на общие тематики и прочих ссылок.

Что делать?

По заявлению Google следует вести работы над контентом и больше ничего не делать.

There’s no “fix” for pages that may perform less well other than to remain focused on building great content. Over time, it may be that your content may rise relative to other pages.

Но в цели поисковой компании Google не входят интересы поисковых оптимизаторов, поэтому рассчитывать на честность не стоит.

Следует полагаться на фактический анализ сайтов после обновления.

Итак, в связи с обновлением корневого алгоритма Google следует выполнить ряд мер.

1 — Оповестите владельцев бизнеса

Вполне возможно, что у множества продвигаемых сайтов повысятся или понизятся позиции в поисковой выдаче. Следует оповестить клиентов об обновлении, так как их трафик может измениться, а они могут не знать причин.

Если не оповещать, то может сложиться впечатление, будто оптимизатор не в курсе событий.

Если некоторые из продвигаемых сайтов получили рост трафика, сообщите про позитивные изменения клиентам. Результат является итогом работы поискового оптимизатора.

В случае падения позиций, следует разобраться с причинами и внести корректировки в стратегию продвижения.

Проанализировав множество сайтов становится ясно, что в большинстве случаев главными причинами снижения позиций являются плохие внешние ссылки и плохой контент.

2 — Обновите контент, если тематика связана с E-A-T

По данным систем наблюдения за поисковой выдачей, наибольшие флуктуации по позициям прослеживаются у тех сайтов, которые находятся в тематиках, для которых важен фактор E-A-T.

Полученная информация подтверждается как поисковыми оптимизаторами, так и данными от систем отслеживания изменений в поисковой выдаче.

Данные от системы наблюдений за поисковой выдачей SEMrush Sensor:

Следует обновить контент, если позиции упали и сайт находится в следующих тематиках:

  • Здоровье;
  • Уход за животными;
  • Еда и питание;
  • Косметология и физические нагрузки;
  • Политика.

Наблюдается падение позиций у множества сайтов в нише о здоровье:

Характерным для ниши о здоровье является снижение позиций сайтов компаний.

На подобных сайтах размещается односторонний позитивный контент, что снижает значение фактора ранжирования E-A-T.

Топ-пост этого месяца:  Ошибка 404 joomla. Компонент sh404sef Joomla 3

Если с контентом все в порядке, то следует проверить внешний ссылочный профиль для каждой страницы, которая потеряла позиции.

3 — Исправьте внешний ссылочный профиль

Аудитория MegaIndex в основном состоит из поисковых оптимизаторов и владельцев бизнеса. Исходя из обращений к MegaIndex, часто владельцы бизнеса не знают о плохих внешних ссылках, размещенных на сайт компании.

В MegaIndex c целью выявления плохих ссылок создали специальную метрику. Любой внешней ссылке присваивается значение SEO или ORG. Метрика рассчитывается на основе множества параметров и предназначена для фильтрации внешних ссылок.

Одним из предназначений является поиск плохих внешних ссылок и добавление их в Google Disavow Links.

Рекомендованный материал по теме оптимизации внешнего ссылочного профиля — Как найти плохие внешние ссылки и избавиться от их влияния на ранжирование сайта.

Другим предназначением является поиск авторитетных площадок для размещения ссылок на продвигаемый сайт. В данном случае следует проводить анализ конкурентного сайта, и применять фильтрацию по ссылкам ORG.

В MegaIndex разработаны специальные методы API для получения информации о ссылках.

Пример использование API. Запрос информации про изменения ссылочной массы для домена indexoid.

Список всех методов доступен по ссылке — MegaIndex API.

Как анализировать ссылочный профиль — Видео:

Как найти плохие ссылки — Видео:

Обзор Megaindex — Внешние ссылки — Видео:

Вопросы и ответы

Есть ли официальное заявление от Google по поводу обновления алгоритма?

Да. Google подтвердил информацию об обновлении корневого алгоритма ранжирования.

Google не всегда подтверждает ввод алгоритмов, но в данном случае обновление было подтверждено посредством официального аккаунта в Twitter.

This week, we released a broad core algorithm update, as we do several times per year. Our guidance about such updates remains as we’ve covered before.

Когда было предыдущие обновление алгоритма Google Florida?

Алгоритм обновлялся в 2003 году. Для многих сайтов изменились позиции в поисковой выдаче. Алгоритм был задействован сразу на весь мир. Продвигать сайты стало значимо сложнее. Алгоритм исключил из топа органической выдачи следующие сайты:

  • Переспамленные ключевыми словами;
  • С неуникальным контентом;
  • С покупными внешними ссылками.

Почему обновление называется Florida?

Первое обновление алгоритма было запущено в 2003 году. Обновление Google Florida 1 была развернуто во время проведения конференции PubCon, которая проходила во Флориде в 2003 году.

Вопреки заблуждению отметим, что Google Florida 2 не является наследником Google Florida 1.

Как узнавать об обновлениях поисковых алгоритмов?


Значимые обновления освещаются в средствах массовой информации. Самостоятельно отслеживать обновления можно используя специальные инструменты. Подобные инструменты фиксируют флуктуации в выдаче.

Например, можно использовать MegaIndex Updates или SEMrush Sensor.

Ссылка на инструмент от MegaIndex — Updates.

Ссылка на инструмент от SEMrush — Sensor.

Выводы, кратко

Google обновил корневой алгоритм ранжирования сайтов:

  • Изменения зафиксировали системы отслеживания;
  • Google подтвердил обновление.

Обновление алгоритма стало всемирным, то есть измененный алгоритм применяется ко всем сайтам. Есть множество сайтов, которые получили прирост трафика после обновления, так как использовали белые методы поискового продвижения.

Если позиции сайта снизились, исходя из анализа изменений следует выполнить следующие:

  • Для сайтов, которые высоко ранжировались в основном за счет контента, требуется провести комплекс мероприятий по внешней оптимизации;
  • На сайтах, для которых важную роль играет фактор E-A-T, следует провести комплекс мероприятий по повышению экспертности. Например, добавьте на страницы строку об авторе. Далее стоит разместить ссылки на контакты, ссылки на социальные сети автора. Рекомендуется создать страницу автора и опубликовать биографию. К тематикам YMYL относятся: здоровье, уход за животными, еда и питание, косметология и физические нагрузки, политика. Укажите автора статей как эксперта в нише, обновите контент. Переиндексируйте страницы;
  • Проанализируйте ссылочный профиль. Сайты с покупными ссылками низкого качества понизились в поисковой выдаче. Найдите и отправьте токсичные ссылки в Google Disavow Links. Также понизились сайты с переоптимизированным анкор-листом;
  • Удалите копии контента с сайта. Перефразирование в тексте не делает содержание страницы уникальным. Google очень легко идентифицирует подобные типы манипуляций;
  • Оповестите клиентов о возможных изменениях в позициях в связи с обновлением корневого алгоритма ранжирования.

Остались ли у вас вопросы, мнения, комментарии по теме обновления корневого алгоритма ранжирования?

Мнения экспертов

Мы в Тулс пристально следим за Google и сейчас активно развиваем, в том числе и инструменты под него, в связи с чем перевели и адаптировали аналитическую статью, в которой можно найти ТОП проигравших и выросших проектов.

По факту, ситуация следующая:

Шторм в рунете, ну, не сказать, чтобы запредельный, но есть локальные изменения в тематиках (вложение с общей сводкой, далее с медициной).
Имеется определённая зависимость с предыдущими крупными апдейтами, которые затронули преимущественно сайты в тематике YMYL (Your Life Your Money). На графиках видно, что медицину сильно «тряхнуло», а вот финансы начало «трясти» позже, только 20 числа.
Ряд проектов, которые выпали в YMYL-апдейт, частично или полностью вернулись сейчас.
Несколько проектов, особенно в медицинской и финансовой тематиках — стали испытывать сложности. Задело и некоторые инфо-проекты.

Что можно рекомендовать?

Сделать акцент на аналитику выросших и упавших проектов, посмотрите: сам контент, авторство и доверие к контенту, информацию о сайте и организации, структуру сайта и материалов. Аналитику победителей можно сделать по MegaIndex в том числе. Анализ шторма в тематике — по Тулс.
Если просели — оперативно вносить правки, не ждать отката, его почти никогда не бывает (хотя этот апдейт и есть частичное исключение).

Мы не заметили особого влияния нового алгоритма на наши сайты, которые продвигаются в .ru и .ua сегменте. Сейчас анализируем выборку из

200 сайтов, чтобы сделать более точные выводы.

Запуск Google June 2020 Core Update был завершён 8 июня

2020-6-12 09:52

Сотрудник Google Дэнни Салливан подтвердил в Twitter, что запуск последнего обновления основного алгоритма был завершён 8 июня. Google приступил к запуску апдейта 3 июня. Чтобы распространить его по всему миру, компании понадобилось 5 дней.

Судя по предыдущим апдейтам, внедрение таких крупных обновлений может занимать до двух недель. С ранними данными по Google June 2020 Core […]

Сообщение Запуск Google June 2020 Core Update был завершён 8 июня появились сначала на Searchengines. ru.

Курс «Контекстная реклама: локомотив для бизнеса»

3 июня, понедельник 11:00 — 13:30 Занятие 1. От основ к медиапланированию Разберемся во всех этих странных названиях: домен, хостинг, ip-адрес, днс-сервер, веб-сервер, php, javascript, рекламная кампания, Яндекс. cossa.ru »

Контекстная реклама: локомотив для бизнеса

Занятие 1 4 июня, понедельник, 16:00 — 18:30, «От основ к медиапланированию»: Понятие контекстной рекламы Преимущества контекстной рекламы Виды контекстной рекламы Медиапланирование Операторы и типы соответствия (Я/G) Составление объявлений Подбор посадочных страниц (Д/З создать медиаплан) Занятие 2 7 июня, четверг, 16:00 — 18:30, «Знакомство и настройка Яндекс. cossa.ru »

Google прекратит поддержку старых версий смартфонов с 30 июня

Google с 30 июня перестанет поддерживать версию Android 2.1 Eclair и более старые версии. Пользователи этих версий не смогут больше скачивать приложения из Android Market. Об этом сообщили разработчики в своем блоге. news.yandex.ru »

20 июня смотрите конференцию Google Think Performance в прямом эфире

20 июня состоится ежегодная конференция Google Think Performance, на которой выступят специалисты Google из России, США и Израиля, а также представители крупных брендов, среди которых Ozon. ru, AviaSales, банк «Открытие» и другие. searchengines.ru »

Апелляция рассмотрит 30 июня жалобу Google на решение в пользу ФАС

МОСКВА, 2 июн — РАПСИ. Девятый арбитражный апелляционный суд отложил на 30 июня рассмотрение жалобы компании Google на решение нижестоящего арбитража Москвы, подтвердившего законность и обоснованность выводов Федеральной антимонопольной службы… news.rambler.ru »

Суд 2 июня рассмотрит апелляцию Google на решение в пользу ФАС России

Google официально запускает обновление основного алгоритма

Сегодня, 3 июня 2020 г. начат запуск апдейта, который получил название June 2020 Core Update. Об этом накануне сделал запись на своей страничке в Twitter Дэн Салливан с указанием на то, что рекомендации Google относительно обновления остаются неизменными.

Суть этих рекомендаций, неоднократно озвученных представителями Google ранее, состоит в том, что делать никому ничего не следует, так как речь идет просто об улучшении поисковой системой своего понимания поисковых запросов для предоставления более релевантных результатов поиска на веб-страниах.

Как показывает практика, на полный запуск обновлений основного алгоритма Google традиционно требуется 1-2 недели, что действительно исключает возможность каких бы то ни было разумных действий или существенных выводов со стороны вебмастеров. Кроме того, следует учитывать универсальность апдейтов — даже если из названия следует противное (например, известный Medic Update охватил на самом не только сайты тематики «Медицина и здоровье», но и все прочие категории ресурсов).

Напомним, что о выпуске предыдущего обновления основного алгоритма было заявлено в марте.

Что было с Google в июне — статистика обновлений

Преамбула: 5 июня Google начал обновлять свой основной алгоритм, вместе с ним поработал над разнообразием результатов в поисковой выдаче. Разбираемся вместе, что к чему.

Информацию вначале предоставили SEO-сервисы, включая Sistrix, RankRanger, Moz, SearchMetrics, потому что они работают с данными проиндексированных страниц.

Данные от сервисов

Sistrix

Заметили следующее влияние обновления ядра. На скриншоте — срез британского индекса Google по количеству страниц:

Также есть список сайтов, которые улучшили свои позиции:

И которые ухудшили:

Йоханнес Беус: “Google впервые заранее проанонсировал обновление своего алгоритма. Апдейт повлиял на большее количество сайтов, чем предыдущие обновления. Мы заметили, что попали под апдейт много сайтов YMYL, новостных ресурсов, сайтов розничной торговли. Отмечу, что после 24 часов произошли значительные изменения, а значит, с течением времени они окажутся еще сильнее”.

RankRanger

Измерил результаты поиска по США. Вот первичные результаты, которые они собрали:

Сильно пострадали ниши гемблинга, здравоохранения и финансов. Согласно данным, многие сайты колебались вверх-вниз, но много позиций не потеряли.

SearchMetrics

Маркус Тобер заметил, что возвращены некоторые элементы из мартовского обновления. Тем не менее, похоже, что Google изменил некоторые факторы ранжирования. Так, в марте заметен сильный акцент на авторитетность бренда, теперь это упразднили. В медицинской сфере ранее авторитетные сайты — webm.com и verywellhealth.com снизили свои позиции.

Питер Майерс заявил в Твиттере, что по наблюдениям некоторые сайты медицинской тематики улучшили свои позиции. А больших сдвигов в SERP не было.

Работает ли коэффициент разнообразия так, как надо

Также Google объявил о работе над разнообразием сайтов в выдаче. Это обновление интересно тем, что мы можем напрямую это измерить.

Краткий ответ: технически Google действительно улучшил разнообразие, но обновление было очень узко направленным. Поэтому пришлось копать и копать, чтобы найти подробности.

Как в действительности улучшилось разнообразие

Используя набор из 10 000 ключей MosCast, мы рассмотрели среднее разнообразие по поисковой выдаче на первой странице. Проще говоря, посчитали, сколько уникальных поддоменов было на каждой странице. На первой странице — не менее десяти обычных результатов, в частности, отношение уникальных поддоменов к общему числу органических результатов. Вот график:

Разнообразие сайтов в 90% значит, что 9 из 10 поддоменов — уникальны. Увидеть трудно, но с 6 по 7 июня среднее разнообразие улучшилось с 90,23% до 90,72%. Тренд можно увидеть с течением времени на шкале:

Видим, что большая часть изменений произошла за один день и осталось таковой.

Было ли улучшение точечным?

Для справедливости, рассмотрим утверждение от Google:

Т. е. Google может улучшить наихудшие сценарии. Но это станет понятно не сразу из-за усреднения данных по выдаче.

Мы можем выделить ситуации с более чем двумя ответами от одного сайта, если обратим внимание на результаты выдачи с оценкой разнообразия 80% и выше. Вот график за 30 дней:

6 июня 84,58% сайтов имели степень различия 80% и выше. 7 июня показатель вырос до 86,68%.

Сравнение количества дублей одного сайта

Одна точка на графике ничего не говорит о том, что происходит в каждом из сегментов. Для анализа я хочу вычислить точное количество дубликатов. Еще одно осложнение — когда два сайта имеют не один результат в органике. Это снижает разнообразие в выдаче, но не значит, что один сайт предпочтительнее другого.

Давайте посмотрим на количество “доминирующих” сайтов по числу дубликатов среди 10 000 результатов поиска.

Для чуть более половины SERP не было дубликатов. После обновление это число не сильно изменилось. Количество сайтов с двумя результатами (т. е. 1 дубль) увеличилось после апдейта.

Мы по-прежнему видим результаты, где доминирует один сайт. Это не сильно изменилось. Если посмотреть на ключевые слова, то ключи, по которым у сайта более 4 позиций в выдаче, как правило — бренд-запросы и навигационные.

При оценке разнообразия сайтов следует быть осторожным. Как ни странно, все равно есть случаи, когда один домен доминирует над остальными.

Результаты в верхней части указывают на коммерческие намерения, в нижней — сочетание коммерческого и информационного интента. У Amazon есть блок из пяти результатов по продукту, и это не тот случай, когда в запросе указана торговая марка или навигационные цепочки (я не имел никакого интереса к Amazon).

Конечно, мы можем сказать, что Google не решил проблему. Но что нам говорят более широкие результаты? Справедливо отметить, что некоторое улучшение было, оно подкреплялось официальными заявлениями Google. Количество результатов с тремя-пятью результатами от доминирующего сайта уменьшилось, но в большинстве случаях в них еще было два результата от одного сайта.

Даже если выделить это изменение, оно довольно небольшое. А SERP с 6 — 10 результатами остались без ощутимых улучшений. Это может быть связано с тем, многие запросы относятся к сильному бренду, а количество дубликатов от 6 до 10 и так встречалось редко.

Добавить комментарий