Google запускает новый раздел в поисковой выдаче


Содержание материала:

Google запускает новый интерфейс поисковой выдачи на десктопах?

2020-12-6 11:14

Похоже, что Google запускает новый интерфейс поисковой выдачи на десктопах. Впервые он был замечен около месяца назад. На тот момент его видело ограниченное количество пользователей в США. Теперь их число возросло, сообщает Search Engine Roundtable.

В новой версии «Инструменты» и «Настройки» расположены под строкой поиска: Ниже – несколько полноэкранных скриншотов нового оформления SERP с каруселью […].

Google запускает таргетинги на аудитории по интересам в Поиске

Также в этом контексте станет доступен и таргетинг по сезонным событиям seonews.ru »

Google запускает новое меню поиска с иконками

Google использовал значки рядом с поисковыми фильтрами еще в 2010 году на настольном ПК и в 2011 году в мобильном поиске. Но в 2011 году Google удалил иконки из настольной версии. За прошедшие годы Google внес много изменений в свою верхнюю панель. news.yandex.ru »

Google запускает обновленный дизайн мобильной выдачи

Нововведение касается оформления рекламных объявлений и органических результатов seonews.ru »

Google запускает решение для показа реальных URL для AMP-страниц

Google решил проблему с отображением URL издателей, использующих формат AMP. Теперь в результатах поиска в браузере Chrome пользователи смогут видеть реальный URL (ebay. com), а не Google AMP URL (google. searchengines.ru »

Google запускает сразу три новых функции для товарных сайтов

Это новый отчет для Search Console и новые опции в Merchant Center и Manufacturer Center seonews.ru »

Google запускает три нововведения для адаптивных медийных объявлений в КМС

Среди них – видеоролики для объявлений, отчет о комбинациях креативов и не только seonews.ru »

Google запускает бета-версию Ads API v0_7

Обновленные клиентские библиотеки будут опубликованы в ближайшее время seonews.ru »

Google запускает технологию Google Voice для протокола VoIP

Компания Google сообщила о том, что в данный момент запускает свою технологию Google Voice для тех, кто хочет передавать голосовые сообщения через VoIP-протокол. В полной мере система заработает в течении недели. news.yandex.ru »

Google запускает собственный поиск для каждого пользователя

Как пишет The Verge, поисковик теперь будет создавать так называемые карточки активности пользователя, привязанные к аккаунту Google. В этих карточках будут по темам рассортированы запросы из истории поиска конкретного пользователя. news.yandex.ru »

Google запускает собственный поиск для каждого пользователя

Поисковик Google начал создавать для каждого пользователя карточки активности, в которые собирает поисковые запросы, рассортированные по темам. Теперь, осуществляя новый поиск, пользователь будет видеть вверху страницы ссылки на результаты прошлых поисков по связанным запросам. cnews.ru »

Google запускает Chrome Canvas, веб-инструмент для рисования

Даже если приложения всегда остаются небольшими экспериментами, им все равно будет интересно поиграть, и последний эксперимент Google, Chrome Canvas, скорее всего, не будет отличаться. Canvas, запущенный без всякой фанфары, по сути является браузерным инструментом рисования. news.yandex.ru »

Google запускает поисковик для ученых

Сервис Dataset Search станет дополнением к системе Google Scholar, которую активно используют исследователи всего мира. Первоначальный релиз Dataset Search будет охватывать данные исследований по естественным и социальным наукам, публикации государственных и новостных организаций. nag.ru »

Теперь в Ads можно включить обязательную двухэтапную верификацию для входа в общий аккаунт seonews.ru »

Google Ads объявил о запуске инструмента, с помощью которого администраторы смогут устанавливать для аккаунтов многофакторную проверку подлинности, в том числе двухфакторную верификацию. news.yandex.ru »

Google запускает умные кампании для малого бизнеса

Новый инструмент разработан специально для представителей малого и локального бизнеса, у которых нет маркетолога seonews.ru »

Google запускает новый Indexing API

Пока инструмент может использоваться только для сканирования страниц вакансий seonews.ru »

Google запускает новый Indexing API

Indexing API позволяет владельцам сайтов напрямую оповещать Google о добавлении или удалении страниц вакансий. news.yandex.ru »

Google запускает веб-версию Andro >Чтобы веб-версия заработала, надо запустить Android Messages на смартфоне, перейти в меню настроек, выбрать пункт «Веб-версия Сообщений» и просканировать QR-код со страницы веб-клиента в браузере. news.yandex.ru »

Google запускает цифровую аудиорекламу в DoubleClick

Компания Google сообщила, что аудиореклама теперь доступна клиентам DoubleClick Bid Manager по всему миру. Это открывает брендам новые перспективные возможности для охвата вовлеченной аудитории — Bid Manager содержит инструменты, которые помогут охватить многочисленную аудиторию в самых популярных стриминговых сервисов. searchengines.ru »

Google запускает сервис YouTube Premium с возможностью скачивать видео

Изучив код версии 13.16 для Android разработчики сумели прийти к выводу, что вскоре Google запустит сервис YouTube Premium, который станет заменой YouTube Red. news.yandex.ru »

Google запускает сервис Shopping Actions по продвижению товаров

Google вскоре запустит платный сервис, он предназначен для продвижения товаров различного назначения. news.yandex.ru »

Google запускает сервис Song Maker для записи музыки прямо в браузере

Речь идёт о сервисе Song Maker, позволяющем любому человеку создавать музыку. Проект Chrome Music Lab функционирует уже около полутора лет. news.yandex.ru »

Google запускает собственный корпоративный мессенджер Hangouts Chat

Google запустит корпоративный мессенджер Hangouts Chat для всех пользователей до 4 марта 2020 года, сообщается в блоге компании. news.yandex.ru »

Google запускает собственный корпоративный мессенджер Hangouts Chat

Сервис позиционируют в компании как конкурента Slack и Microsoft Teams sostav.ru »

Google запускает Hangouts Chat, конкурента Slack, для всех пользователей G Suite

Google объявил о запуске корпоративного мессенджера Hangouts Chat для всех пользователей G Suite. searchengines.ru »

Google запускает новый вариант отображения SERP на десктопах

Зарубежные специалисты дали этому обновлению название «Breadcrumb SERPs» seonews.ru »

Google запускает бета-версию Search Console для всех пользователей

Google объявил, что начинает запуск бета-версии Search Console для всех подтверждённых пользователей. Этот процесс будет завершён в ближайшие недели. Пользователи сервиса получат доступ к ряду новых отчётов: об индексировании, о статусе AMP-страниц и по статусу вакансий. searchengines.ru »

Google запускает серию справочных видео

Ведущим проекта стал сотрудник отдела качества поиска Джон Мюллер seonews.ru »

Google запускает новый раздел «Финансы» в поиске

Google объявил о запуске нового раздела «Финансы» в мобильной и десктопной версии поиска. По клику на эту вкладку пользователи попадут в обновлённый сервис Google Finance. Здесь они смогут просмотреть информацию по акциям, которые их интересуют, рекомендации по другим ценным бумагам, соответствующим их интересам, новости на эту тему, рыночные индексы и др. Новую версию Google Finance […] searchengines.ru »

Google запускает новый дизайн мобильной выдачи

Пользователи заметили крупный редизайн интерфейса поисковой выдачи в мобильных устройствах seonews.ru »

Google запускает новый интерфейс мобильной поисковой выдачи

Англоязычные пользователи заметили, что Google запускает новое оформление мобильной поисковой выдачи. Среди основных изменений значатся следующие: Все блоки имеют закруглённую форму (строка поиска, карточки результатов поиска, блок «Главные новости» и т. searchengines.ru »

Google запускает программу защиты аккаунтов пользователей физическими ключами

Два секретных ключа, находящиеся на токенах, должны защитить пользователей от кибератак и взломов seonews.ru »

Google запускает проект «Вдали от столиц»

МОСКВА, 14 сентября 2020 г. Компания Google при поддержке Агентства стратегических инициатив объявляет о старте проекта «Вдали от столиц». news.rambler.ru »

Google запускает в Индии платёжный сервис Tez

Google не стала продвигать в этой стране Android Pay из-за того, что в Индии очень распространена платёжная система UPI (Universal Payments Interface). news.yandex.ru »

Google запускает «умную» ленту новостей в России

Google представляет обновленную «умную» ленту новостей в мобильном приложении. news.yandex.ru »

Google запускает «умную» ленту новостей в России

С ней пользователю даже не придется формулировать запрос в поисковике seonews.ru »

Google запускает дополненную реальность на Andro >Корпорация Google представила платформу ARCore для создания приложения с дополненной реальностью под Android (аналогичную платформу для iOS Apple представила в июне). news.rambler.ru »

Google запускает раздел вопросов и ответов на панели знаний для местных компаний

Около месяца назад Google начал тестировать новый раздел для вопросов и ответов на панели выдачи Сети знаний для местных компаний. На днях представитель сервиса Google Мой бизнес сообщила, что теперь эта функция запускается для всех пользователей Android. searchengines.ru »

Google запускает новую программу для поддержки AI-стартапов

Google объявил о запуске новой программы Developers Launchpad Studio. Эта инициатива создана для поддержки стартапов в области искусственного интеллекта (AI) и машинного обучения по всему миру. В рамках 6-месячной программы Google поможет участникам оформить свой продукт и представить его инвесторам. searchengines.ru »

Google запускает новую умную ленту новостей

Разработчики популярной корпорации Google поведали в своем блоге о том, что 19 июля будет запущена персонализированная умная лента новостей, которая сможет подбирать видео, новости и другой контент исходя из интереса пользователей. news.yandex.ru »

Google запускает персонализированную ленту новостей

Компания Google сообщила о запуске персонализированной ленты новостей. Ранее она была представлена в декабре 2020 года в основном приложении Google на Android, а сегодняшнего дня станет доступна пользователям приложения Google на iOS. searchengines.ru »

Google запускает новое решение для рекламных измерений

Google объявил о запуске Ads Data Hub – измерительной системы для кросс-девайс кампаний в YouTube, КМС и DoubleClick Ad Exchange. Новое решение создано на базе инфраструктуры Google Cloud, включая BigQuery. searchengines.ru »

Google запускает новое оформление отзывов для отелей

Google запускает новое оформление отзывов для отелей. Об этом сообщает Search Engine Land. Среди основных изменений значатся следующие: Отзывы со сторонних сервисов могут показываться в виде карусели (для отдельных отелей). searchengines.ru »

Google запускает расширения адреса для объявлений в YouTube

На мероприятии Marketing Next Google объявил, что в скором времени расширения адреса станут доступны для объявлений в YouTube. Точную дату запуска в компании не уточнили. Помимо адреса, эти расширения позволяют добавить в объявления часы работы, схему проезда, фотографии и другую информацию. searchengines.ru »

Google запускает облачный сервис управления данными для интернета вещей

Google Cloud IoT Core поможет компаниям справиться с управлением всеми этими устройствами и данными. Ранее похожий сервис запустила компания Microsoft: корпорация презентовала ПО, которое поможет предпринимателям работать с IoT без разработки технологии «с нуля». news.yandex.ru »

Google запускает новый механизм борьбы с неточными новостями

На днях Google представила новый механизм обратной связи для пользователей, чтобы те могли сообщать о неточностях или оскорбительных высказываниях в поисковой выдаче. Если написать в поисковой строке Google конкретный вопрос, иногда можно получить ответ, предоставленный каким-то из сайтов. news.yandex.ru »

Google запускает умные кампании в контекстно-медийной сети

С умными кампаниями рекламодатели получают в среднем на 20% больше конверсий cnews.ru »

Google запускает кросс-девайсный ремаркетинг

Некоторые англоязычные пользователи уже заметили в Google Analytics оповещение: Начиная с 15 мая 2020 года все ресурсы, использующие ремаркетинг в Google Analytics, смогут воспользоваться новым кросс-девайсным функционалом. news.yandex.ru »

Google запускает игровые рекламные объявления

На конференции Games Developer Conference (GDC), которая проходит с 27 февраля по 3 марта в Сан-Франциско, компания Google представила новый интерактивный формат рекламы — игровые рекламные объявления. searchengines.ru »

Google запускает новые ярлыки для рекламных объявлений

Google приступил к запуску нового варианта ярлыков для рекламных объявлений AdWords. Теперь они будут оформлены в виде текста в зелёной рамке: Изменение первыми начали видеть пользователи в США. В Google подтвердили запуск и добавили, что он осуществляется в мировом масштабе. searchengines.ru »

Партнеры

Реклама

Самое свежее

В США хотят заставить IT-компании вывести пользователей из «пузыря фильтров»

В Сенате США разработали законопроект, который призван освободить пользователей из «пузыря фильтров». Об этом сообщает The Wall Street Journal. Новый документ под названием «The Filter Bubble Transparency Act» требует, чтобы крупные интернет-компании признали, что используют «непрозрачные алгоритмы» и предложили пользователям возможность просмотра неперсонализированных результатов поиска или контента.

Google работает над улучшением результатов поиска по запросам на тему здоровья

Google намерен облегчить поиск медицинских записей для докторов, а также улучшить качество поисковой выдачи по запросам, связанным со здоровьем, в основном поиске и YouTube. Об этом рассказал глава Google Health Дэвид Файнберг (David Feinberg) на медицинской конференции HLTL в Лас-Вегасе, сообщает CNBC.

В приложении Google News теперь можно видеть новости на двух языках

Приложение Google News получило новую функцию, которая позволяет пользователям просматривать контент на двух языках. Об этом сообщается в блоге Google. Например, пользователи могут просматривать новости на английском и на хинди — достаточно выбрать соответствующие языки в настройках: При этом Google будет учитывать ранее заданные настройки персонализации, показывая пользователям самые релевантные статьи по интересующим их темам […] Сообщение В приложении Google News теперь можно видеть новости на двух языках появились сначала на Searchengines.ru.

Google тестирует карусели изображений в блоках локальной выдачи

Зарубежные специалисты заметили, что Google начал тестировать несколько изображений для компаний в блоках локальной выдачи. В рамках теста фотографии по каждой компании оформлены в виде прокручиваемой карусели: Больше примеров можно посмотреть в Twitter: В текущей версии блока для каждой компании приводится только одно изображение: Напомним, что в июне Google тестировал блоки локальной выдачи, оформленные в […] Сообщение Google тестирует карусели изображений в блоках локальной выдачи появились сначала на Searchengines.ru.

В результатах поиска Google увеличилось количество сниппетов с видео

Основатель и директор по продукту Yoast SEO Джуст де Вальк (Joost de Valk) обратил внимание на увеличение количества сниппетов и карточек с видео в результатах поиска Google. Он поднял этот вопрос в Twitter, адресовав его сотрудникам поиска: «Google запустил изменение, связанное с видео-сниппетами? Мы видим карточки и сниппеты с видео в основных результатах поиска для множества […] Сообщение В результатах поиска Google увеличилось количество сниппетов с видео появились сначала на Searchengines.ru.

Google не планирует добавлять возможность отправки контента напрямую в индекс

Ранее в этом месяце Bing начал тестировать новую функцию, которая позволяет издателям отправлять контент и HTML напрямую в индекс поисковой системы, что делает ненужным сканирование этих страниц. Во время последней видеовстречи для вебмастеров автор блога Search Engine Roundtable Барри Шварц спросил, планирует ли Google добавить такую функцию.

В Google возникли сбои в работе нескольких поисковых операторов

Google разбирается с проблемами в работе нескольких поисковых операторов, на которые жалуются пользователи в Twitter. Об этом сообщает Search Engine Roundtable. Так, сбои наблюдаются по запросам с командами related:, intitle: и inurl:.

Как влюбить в себя Google или памятка блогеру по оптимизации сайта под поисковую систему

Привет, друзья! Наблюдая за статистикой моего блога, я уже давно заметила, что в Яндексе его позиции в разы выше, чем в поисковой системе Google. Если статьи, по которым трафик идет на сайт, в Яндексе находятся в ТОП-10, то в Google они уходят далеко за 100…

Чтобы как-то повлиять на ситуацию, я решила изучить рекомендации Гугл по оптимизации сайтов. А вообще это нужно делать с момента запуска веб-площадки. Если вы не в курсе, то у поисковых систем есть официальное руководство по оптимизации ресурсов. И в большинстве случаев не нужно «городить огород»: необходимо лишь изучить официальные документы.

Если вас интересует оптимизация сайта гугл, то вы открыли нужную статью. Есть еще один важный момент, который нужно уяснить всем блогерам. Зачастую мы воспринимаем требования поисковых систем к сайтам с точки зрения «строго родителя», который запрещает разные вещи и всячески ограничивает свободу блогеров.

Но строгий родитель в большинстве своем действует из благих побуждений к своему ребенку. Так и требования поисковых систем – это лишь возможность помочь блогерам более качественно вести свои ресурсы, чтобы удовлетворять запросы, как пользователей, так и поисковых роботов.

Топ-пост этого месяца:  Проверка скорости загрузки страницы с помощью инструмента Webpagetest настройки и применение

Внешняя оптимизация сайта под поисковую систему гугл начинается с соблюдения технических требований.

Основные технические моменты настройки сайтов

Google выделяет 4 пункта, соблюдение которых положительно скажется на продвижении вашего сайта в поисковике.

Вообще, это обязательное условие, и его необходимо соблюдать каждому блогеру. Суть в том, что после создания сайта необходимо подтвердить на него права через поисковик. Это касается не только Google: новая площадка должна быть добавлена во все поисковые системы, в том числе Яндекс и mail.ru. Как это сделать – на моем блоге уже выходила подробная статья с пошаговой инструкцией.

  1. Настройка файла robots.txt

Оптимизация сайта невозможна без правильной настройки файла robots.txt. Этот файл необходим, чтобы указать роботам, какую информацию можно индексировать на вашем сайте, а какую – нет.

Необходимо открыть доступ роботу Googlebot к JavaScript, CSS, графическим файлам.

Учитывайте, что запрещённые к индексации страницы через robots.txt, могут отображаться в поисковой выдаче. В этом случае, чтобы полностью заблокировать URL, используйте атрибут noindex.

По-другому разметку страниц на сайте, особенно это актуально для блогов на движке wordpress, называют версткой.

Сразу хочу отметить, что бесплатные шаблоны для блогов на вордпресс не содержат микроразметку страниц. Чтобы сделать верстку, необходимо пригласить вебмастера.

В качестве альтернативы могу порекомендовать платные шаблоны магазина wpshop.ru со встроенной микроразметкой страниц по умолчанию.

  1. Установка защищенного протокола на сайт https

Это обязательное условие было введено Google в конце 2020 года. HTTPS – это защищенный протокол, который призван кодировать личные данные пользователей сайтов.

Существуют как платные, так и бесплатные виды SSL-сертификатов. Для простых блогов достаточно установить защищенный протокол типа letsencrypt. Уверена, что ваш хостинг предоставляет функцию установки бесплатного SSL-сертификата. Выпуск платных сертификатов можно заказать отдельно или купить также через хостинг.

Требования гугл к оформлению сайта и статей

И если с решением технических вопросов на сайте вам может помочь вебмастер, то с оформлением площадки и статей вы справитесь самостоятельно. Это не менее важная часть оптимизации ресурса для поисковой системы Google.

Правильный title

Чтобы не было путаницы, для новичков уточню, что title – это не заголовок в тексте. Заголовки, которые вы встречаете в тексте статьи, имеют тег Н.

К созданию SEO-заголовков существует несколько рекомендаций:

  • Title должен быть релевантен тематике статьи и отражать содержание страницы;
  • Делайте тайтл кратким, но в тоже время осмысленным;
  • Добавьте в SEO-заголовок ключевую фразу;
  • Каждая страница на сайте должна иметь уникальный title без дублей.
  • Прописывать тайтл, который противоречит содержанию статьи;
  • Использовать шаблоны (заголовок 1, страница 1 и т.д.);
  • Делать дубли;
  • Длинные тайтл;
  • Добавлять ненужные ключевые фразы.

Длину SEO-заголовка можно проконтролировать через плагин Yoast SEO.

Содержательный description

Внутренняя оптимизация сайта невозможно без правильного description. После title – это второй обязательный элемент, который должен быть заполнен на каждой странице вашей веб-площадки.

Согласно требованиям гугл description может состоять из нескольких предложений или даже из одного абзаца. Ограничений на размеры текста в этом блоке нет!

В данном случае я бы не рекомендовала ориентироваться на показатель плагина Yoast SEO, который ограничивает количество символов в мета-описании.

Правильный description должен отражать содержание страницы, быть информативным и интересным.

Не рекомендуется в мета-описание копировать часть статьи или добавлять только ключевые слова. Постарайтесь составить такой дискрипшн к статье, который заинтересует пользователей и обратит на себя внимание поисковиков. Но не всегда мета-описание отображается в выдаче. Поисковый алгоритм сам определяет наиболее релевантный текст для главной страницы поиска.

Оформление заголовков

Теги Н1, Н2, Н3, Н4 и т.д. как раз отвечают за вывод заголовков в статье.

Согласно требованиям поисковой системы гугл заголовки необходимы для структурирования контента.

Не рекомендуется выделять заголовками слова, которые не определяют структуру текста. Не используйте заголовки без необходимости. В этом случае ключевую мысль или фразу лучше выделить тегами strong или em.

На сегодняшний день в интернете есть мнение, что выделять в тексте статьи слова жирным или курсивом нельзя. Это считается переоптимизацией. Но как пишет сам Google, для структурирования контента такое форматирование использовать можно. Единственное, что не нужно впадать в крайности!

Заголовки в статье не должны быть слишком длинными, и не нужно ими злоупотреблять.

Выстраивание иерархии

Самый простой вариант иерархии на блоге выглядит следующим образом: главная страница – рубрика – статья.

Для интернет-магазинов иерархия имеет более сложный вид, но присутствовать она должна на каждой веб-площадке. Это позволяет лучше ориентироваться на сайте как пользователям, так и поисковым роботам.

Иерархию на блогах можно реализовать через настройку «хлебных крошек» плагина Yoast SEO.

К иерархии также относится перелинковка – связывание страниц через внутренние ссылки. Google считает, что это позволяет упростить поиск информации читателям на сайте.

Не рекомендуется использовать на веб-площадках слишком сложную структуру иерархии. Графика и анимация не должны присутствовать в приоритете на сайте в качестве внутренних ссылок.

Навигация

Оптимизация сайта своими руками предполагает наличие навигации. Навигация необходима для поисковых роботов. Для блогов на движке wordpress это реализуется за счет установки специальных плагинов, которые позволяют включить файлы Sitemap XML.

Опять же вспоминаем про плагин Yoast SEO с наличием такой возможности.

Оформление страницы 404

Также поисковая система гугл предъявляет определенные требования к странице 404. 404 отвечает за ненайденную страницу на сайте. Например, владелец блога посчитал правильным удалить определенную страницу со своего ресурса. И пока эта страница присутствует в индексе поисковых систем, посетители, которые будут на нее попадать, увидят ошибку 404.

Google считает, что эта страница должна содержать ссылки на другие элементы веб-площадки: на главную страницу, на популярные разделы, на схожую по тематике удаленной статьи категорию и т.д. Такое оформление должно быть сделано для удобства пользователей.

Требования к URL страницы

По-другому URL страницы называют ее адресом. На вордпресс создание ярлыка реализуется за счет плагинов. Самые популярные из них – rus-to-lat и cyr-to-lat. Это бесплатные плагины.

Также эта функция есть в современном платном плагине, который, я считаю, должен быть установлен на каждом блоге – Clearfy Pro .

Итак, какие требования гугл предъявляет к URLстранице. Нельзя делать ярлык длинным и не понятным. Избегайте добавлять в него шаблоны и большое количество ключевых слов.

URL должен быть простым и уникальным для каждой страницы сайта.

Оптимизация контента

К внутренней оптимизации сайта, конечно же, относится работа над контентом.

Как раз это та сфера, где мы можем вносить изменения своими руками без сторонних исполнителей.

Основное требование, которое должны соблюдать владельцы сайтов – это создание интересного, качественного и полезного контента. А чтобы генерировать такой контент, необходимо учитывать требования читателей. Для этого Гугл рекомендует пользоваться его сервисом «Планировщик ключевых слов».

Готовые тексты должны быть написаны без ошибок, в том числе орфографических, пунктуационных и стилистических.

Для проверки текстов я рекомендую следующие сервисы:

  • orfogrammka.ru
  • advego.com/text/seo/
  • turgenev.ashmanov.com.

Пусть это будут легко читаемые тексты без запутанных формулировок. Не используйте изображения вместо текста, т.к. поисковые роботы не умеют распознавать текст на картинках.

Еще одно важное правило для эффективной оптимизации сайта – это постоянное обновление контента. В идеале статья на информационном блоге должна выходить 1 раз в день.

Но даже если вы публикуете 1 пост в неделю, делайте это по расписанию. Чтобы приучить поисковых роботов моментально индексировать новый материал.

Оптимизация текстов для пользователей

Полезные и легко читаемые тексты уже будут привлекать внимание пользователей ресурса. Работайте над оригинальным контентом. Важно привнести в тексты свой опыт, практику и свою точку зрения. Нет смысла заниматься рерайтом чужих статей, т.к. такой контент негативно сказывается на раскрутке сайтов.

Переоптимизация ключевыми словами запрещена. Особенно негативно гугл реагирует на сайты, где текст умышленно скрыт от пользователей, но доступен поисковым роботам.

Важность добавления ссылок

Вот это особенно важный пункт, которому вы должны уделить внимание. Потому что, я пришла к выводу, что одна из причин плохой индексации моего блога в поисковой системе Google, это отсутствие на него внешних ссылок.

Ссылки на сайте бывают внутренние и внешние.

О перелинковке речь в этой статье уже шла. Как раз за это отвечают внутренние ссылки.

Согласно трактовке Google, для правильной оптимизации статей текст ссылки должен содержать описание страницы, на которую она ведет. Нельзя использовать ссылки следующего содержание: читайте здесь, посмотрите тут, кликните сюда, и т.д. Тем более не используйте слова, не имеющие отношение к контенту, на который ведет ссылка.

Нельзя в качестве ссылок использовать предложения, а уж тем более абзацы. Ссылка должна быть короткой, состоящей из нескольких слов или небольшой фразы.

И ни в коем случае внутренние ссылки не закрывайте от индексирования!

Все требования к внешним ссылкам аналогичны требованиям к внутренним.

Вот тут у меня случился «разрыв шаблона». Ведь опытные линкбилдеры рекомендуют наращивать внешние ссылки в соотношении 80% безанкорные и 20% анкорные. Откуда взялась данная формула – не понятно. С точки зрения Google безанкорные ссылки негативно влияют на продвижение сайта.

Как закрыть ссылки от индексирования

Внешние ссылки на сайт – это положительный фактор оптимизации любого ресурса. Но внешние ссылки с ресурса также не менее важны. Когда я проходила обучение по SEO-продвижению, для меня было удивительно, что внешние ссылки с сайта на трастовые ресурсы также благоприятно сказываются на его продвижении. Единственное условие: площадки, на которые вы ссылаетесь, должны быть качественными!

В остальных случаях большое количество внешних ссылок с сайта будет ему вредить, т.к. это растрачивает его вес.

Когда без внешних ссылок не обойтись, их можно закрывать от индексирования. Самый известный способ, который на данный момент потерял свою актуальность – через атрибут nofollow.

Также внешние ссылки легко закрываются через бесплатный плагин Hide Links или скрипт urlspan.

Как правильно оптимизировать изображения

Поисковые роботы еще не научились распознавать текст на картинках. За расшифровку того, что присутствует на изображении, отвечает атрибут Alt.

Это обязательный элемент, который должен быть заполнен к каждой картинке статьи. Если посетитель просматривает сайт в режиме отключения картинок, через Alt он поймет, какое изображение здесь находится.

Данный атрибут должен быть кратким, но содержательным. Нельзя использовать шаблоны типа image1, 2, 3 и т.д.

Если картинка в статье используется, как ссылка, в этом случае необходимо продумать более тщательно текст атрибута.

Нельзя использовать много изображений со ссылками.

Адаптивность сайта под мобильные устройства

Мне кажется, это одно из главных условий успешного продвижения любого веб-ресурса. С каждым годом количество мобильного трафика только растет, и не иметь адаптивный шаблон сайта – это отказаться как минимум от 50% возможного дохода.

Оптимизация сайта под мобильные устройства может быть реализована в 2-х вариантах. Первый вариант – адаптивный шаблон. Второй вариант – мобильная версия сайтов. Насколько я знаю, первый вариант используется намного чаще. И современные площадки верстают сразу с адаптивным дизайном. Следует рассматривать это, как важный способ оптимизации сайта под поисковые системы, в том числе Google.

Внешнее продвижение

Также в руководстве по поисковой оптимизации гугл прописаны способы внешнего продвижения сайтов.

Одно из обязательных условий – это работа блога в связке с социальными сетями. Благодаря такому «сотрудничеству», можно сформировать заинтересованное сообщество, которое будет способствовать продвижению веб-ресурса.

Общение с владельцами блогов по схожей тематике не только натолкнет вас на новые идеи, но и положительно повлияет на раскрутку сайта.

Ну и без формирования внешних ссылок у вашего сайта мало шансов выйти в ТОП. При этом, как утверждает Google, покупка ссылок строго запрещена, их наращивание должно идти естественным путем.

Для меня этот вопрос оказался очень сложным! Я знаю, что на моих статьях хорошее удержание, иногда до 50 минут. Но сохранять статьи в социальных сетях или в закладках никто не хочет. А уж тем более по собственному желанию оставлять ссылку на мой блог или материал принципиально никто не будет этого делать, т.к все владельцы сайтов не хотят растрачивать вес собственных площадок!

На каждую страницу сайта должна быть сделана хотя бы одна текстовая ссылка. Это реализуется за счет внутренней перелинковки. Поэтому при публикации новой статьи не забывайте добавлять ссылки на старые материалы. А после публикации новой статьи поставьте на нее ссылки с ранее опубликованных страниц.

Аналитика через сервис Google Search Console

О том, насколько правильно и эффективно оптимизирован ресурс под поисковую систему гугл, расскажет сервис Google Search Console.

Буквально пару недель назад обновился его функционал, и приходится вновь изучать эту систему.

Пару раз в неделю я открываю Сёч консоль для добавления новой статьи в индексацию. Сейчас это реализовано через раздел Проверка URL.

Здесь вы найдете следующую информацию:

  • отчет об эффективности работы вашего сайта (график отражает его динамику);
  • Страницы с ошибками;
  • Запросы, которые находятся в ТОП поисковой выдачи гугл и приводят больше всего трафика на сайт;
  • Файл Sitemap;
  • Ошибки адаптивности под мобильные устройства;
  • Внешние и внутренние ссылки веб-площадки, и т.д.

Google Search Console – это полноценный инструмент для анализа любой веб-площадки. Вот почему так важно при создании сайта подтвердить права в гугл на собственный ресурс. В противном случае вы не сможете отслеживать изменения показателей сайта через этот инструмент.

В поисковой системе Яндекс за аналитику отвечает ЯндексВебмастер.

Вывод

Оптимизация сайта под поисковые системы подразумевает ряд мер, которые должны быть применены к вашему ресурсу. Но не стоит требования ПС расценивать как ограничение свободы блогеров. Все рекомендации поисковиков направлены на создание качественного ресурса, который способен приносить пользу читателям.

Поэтому основная задача каждого блогера – это качественный контент, и наращивание внешних ссылок.

Автор статьи Ольга Абрамова, блог Денежные ручейки

Google изменит формат поисковой выдачи в течение года

Google в течение года изменит формат поисковой выдачи. На конференции разработчиков Google I/O генеральный директор компании Сундар Пичаи объявил, что функция «Full Coverage», впервые запущенная в Google Новостях в прошлом году, теперь появится прямо в поисковой выдаче Google. Full Coverage использует искусственный интеллект, чтобы получить более целостное представление о тематике.

Мы используем машинное обучение, чтобы идентифицировать разные типы историй и дать вам полную картину, о которой сообщается из самых разных источников. Оно охватывает широкий спектр контента, но позволяет вам углубиться в то, что вас интересует, — пояснил Пичаи.


Также поисковик предложит новый блок «Top Stories», который позволит подробно ознакомиться с результатами поиска. Блок будет показывать не только текстовый контент, но и, среди прочего, видеоролики.

Во всех разных вкладках, предназначенных для того, чтобы пользователь получил исчерпывающую информацию по ключевым словам, используется контент сайтов.

Что мы имеем в сухом остатке: Google получает больше трафика за счет контента сторонних сайтов, а у последних будет меньше шанса заполучить пользователя, так как он уже прочитал/просмотрел интересующую его информацию из поисковой выдачи.

В результате, если план, намеченный до 2020 года, будет претворен в жизнь, то информационные сайты могут лишиться существенной части трафика.

Также на конференции глава поискового гиганта сообщил, что Google начнет индексировать подкасты, чтобы механизм мог отображать их соответствующие эпизоды, основываясь на содержании, а не только на заголовке.

Кроме того, пользователи смогут прослушивать подкаст прямо в результатах поиска Google или сохранить эпизод для последующего прослушивания, например, во время поездки на работу.

Еще не зарегистрированы?

Хотите доминировать в результатах поиска Google? Тогда ваша стратегия должна включать нечто больше, чем просто анализ ключевых слов и «подкованную» кампанию AdWords. Чтобы максимально использовать присутствие в Google, нужно поработать с результатами поисковой выдачи – Google SERP и заставить пользователей обращать внимание на ваш сайт, что принесет желаемый трафик. Это важный, но часто игнорируемый аспект SEO. Верите или нет, но если немного оптимизировать вывод сайта в поисковой выдаче, то вполне возможно, со временем Вы окажетесь в ТОПе. Собственно, перед вами подробное руководство как оптимизировать результаты в поисковой выдаче Google.

Title

Не секрет, что названия страниц могут сильно влиять на поведенческий фактор и, собственно говоря, на кликабельность веб-страниц в результатах поиска. Но знаете ли вы, что Google не всегда показывает оригинальный Title веб-страниц? Название, которое появляется в результатах поиска, может зависеть от нескольких факторов. Google ищет заголовки — короткие и релевантные поисковым запросам пользователей. Чаще всего заголовки результатов поисковой выдачи используют оригинальный тег заголовка страницы — Title, они также могут извлекать релевантный текст из содержимого страницы и выводить его на месте Title. Поэтому, постарайтесь создавать короткий и точный Title, чтобы он отвечал контексту страницы.

Если, например, Title будет не релевантный, не будет характеризировать текст на странице, то поисковая машина вырвет кусок из контекста и покажет его вместо оригинального Title.

А знали вы, что заголовок страницы обрезается в результатах поиска Google? Возможно, вам придется сократить его. Максимальная длина для Title — 600 пикселей, что составляет около 70 символов (78 для мобильных устройств); в противном случае Google усечет его, поставив троеточие в конце.

URL

Возможно, вы замечали, что Google иногда пропускает части длинных URL. Google усекает URL-адреса страниц, удаляя их средние разделы, даже если URL-адрес — только одна строка. Используйте короткие, но значимые URL, когда это возможно, чтобы максимально увеличить их влияние на поисковые запросы Google и страницы результатов поиска.

Помимо того, в сниппетах веб-страниц поисковик может выводить и «хлебные крошки» — внутреннюю иерархическую структуру ссылок сайта, на основе навигации на странице. Но есть одно «но» — хлебные крошки должны быть помечены с помощью семантической разметки (например, Schema.org).

Результаты поиска также могут включать отметки времени – дата публикации или дата последнего обновления, которые Google извлекает из страницы материала. Это распространенная практика для издателей новостей, блогов и других сайтов, которые хотят обратить внимание на свежесть их контента и указать дату публикации или дату последнего обновления.

Чтобы интегрировать эту фишку, вам нужно добавить отметку времени в код страницы. Вы можете использовать плагин W3 Total Cache для WordPress, в коде появится строчка: Served from user @ 2020-03-03 17:15:25.

Вы также можете добавить тег времени на странице вручную, без плагина, используя разметку структурированных данных. В противном случае Google будет использовать дату публикации, которую найдет на вашей странице.

Ниже приведен пример структурированных данных HTML разметки:

Читайте также: Как использовать Google Keyword Planner в 2020 году?

Кэш страницы

Ссылка на кэшированную копию страницы может служить резервной копией, если страница удалена, временно недоступна или не загружается. Это снимок, который Google берет на каждой странице и добавляет в кэш. В последние годы Google внес изменения в местоположение ссылки кэша. Кэшированные ссылки теперь расположены рядом с URL-адресом в зеленой стрелке вниз.

Кэшированная ссылка будет отсутствовать для сайтов, которые не были проиндексированы, а также для сайтов, владельцы которых попросили Google не кэшировать их содержимое. Владельцы могут также блокировать кэширование своей страницы с помощью тега meta-robots «noarchive». Какая польза от него? Во-первых, иногда стоит запретить поисковику создавать кэшированные копии своих страниц, т. к. люди могут воровать контент с закэшированной страницы, даже если вы заблокировали ее на своем сайте. Сайты с платным контентом часто блокируют кэш страниц, чтобы их контент не просматривался бесплатно. Но кэширование никак не влияет на общий рейтинг страницы в поисковой выдаче.

Читайте также: Советы по SEO на WordPress.

Сниппеты

Сниппет — это описание страницы в поисковой выдаче, которое отображается под заголовком Title. Google может получить сниппет из тега meta description или просто из текста на странице материала. Опять-таки, вывод сниппета основан на запросе и может быть изменен путем поиска по ключевым словам.

Например, по запросу «meta description» в результатах поиска Google получим сниппет для сайта yoast.com:

А по запросу «160 character snippet» получим в поисковой выдаче сниппет по той же странице, но уже в другом виде:

Топ-пост этого месяца:  ВКонтакте для чайников, начинающих и новичков - что там делать

В настоящее время, Google увеличил длину сниппета — со 160 символов до 230. По наблюдениям специалистов, работающих с поисковой выдачей Google, в отдельных случаях длинна сниппета может достигать и 300 символов. Как рассказали в Google, нововведение было запущено с целью предоставления более описательных и полезных сниппетов, чтобы людям было понятнее, насколько страницы релевантны их запросам. Оно затронули десктопную и мобильную выдачу.

Эксперт Google Джон Мюллер прокомментировал это так: «Конечно, содержание сниппета в результатах поиска далеко не всегда зависит от тега Description. В большинстве случаев сниппет формируется поисковой системой динамически с учетом содержания конкретной страницы и поискового запроса. Но! Если вы хотите попытаться повлиять на то, как выглядит сниппет вашего ресурса в выдаче Google, вы не просто можете, но и должны пересмотреть длину соответствующего тега в сторону его увеличения».

Известный сервис мониторинга RankRanger также фиксирует изменения в поисковой выдаче и приводит инфографику на своем сайте.

Фактический предел, с точки зрения общей ширины пикселей, теперь увеличился с 928 до 1500> пикселей (на основе данных Screaming Frog SEO). Напомню, что поисковик использует шрифт 13px Arial. Если сниппеты превысят этот предел они будут усечены и заканчиваются троеточием.

Часто Google предпочитает не использовать мета-описание в пользу более релевантного текстового фрагмента, размещенного на странице. Этот фрагмент может появиться из любой точки вашей страницы (включая даже подвалы), поэтому важно уделять пристальное внимание оптимазиции страницы в целом, особенно в отношении релевантных ключевых слов.

Тем не менее, все равно стоит тщательно обрабатывать мета-описание. Во многих случаях Google по-прежнему будет показывать качественный meta description для популярных поисковых запросов. Что такое качественное мета-описание? Это грамотно составленное описание веб-страницы, которое включает высокочастотные поисковые запросы и позволяет избежать избыточной информации, такой как повторение названия страницы Title. Поскольку сниппет основан на запросах, вам необходимо включить популярные и релевантные поисковые запросы как в ваше мета-описание, так и в ваш контент на странице.

Также есть моменты, когда сниппет не появляется. Почему это происходит? Это связано с тем, что этот URL-адрес веб-страницы заблокирован с помощью запрета в системном файле сайта robots.txt — в таких случаях Google отображает сообщение в месте сниппета, в котором говорится: «Описание этого результата недоступно из-за файла robots.txt этого сайта». Также бывает на сайте есть технические проблемы, из-за которых поисковик не может прочитать мета-описание в html-коде страницы:

Вы можете предотвратить такую ситуацию с помощью тега noindex в коде страницы вместо disallow в robots.txt. Таким образом, Google может сканировать страницу, но не добавляет ее в свой индекс поисковой системы и не отображает в результатах поиска.

И наоборот, вы можете отказаться от сниппетов, используя тег на своей странице.

Читайте также: Что такое маркерный запрос

Быстрые ссылки

Быстрые ссылки Google — это дополнительные ссылки, которые отображаются в поисковой выдаче под сниппетом и ведут на внутренние страницы сайта. Например, по запросу «rush analytics», пользователь увидит результат:

Быстрые ссылки позволяют оценить семантическую структуру сайта прямо в результатах поиска и сразу перейти по ним. Такой вывод позволяет на 20-50% увеличить кликабельность и улучшить узнаваемость самого сайта. Google самостоятельно формирует быстрые ссылки для сайта — они появляются не сразу, а только со временем и создаются на основе правильной структуры сайта, хорошо оформленных внутренних ссылок на наиболее релевантный и популярный контент. Google позволяет вывести до 6 автоматических дополнительных ссылок, но если сайт плохо оптимизирован – они не появятся. Только веб-сайты с четкой иерархией и структурой и уникальным контентом, скорее всего, будут иметь дополнительные ссылки.

Поле поиска

Кроме дополнительных ссылок, Google дает возможность вывести дополнительное поле для внутреннего поиска по сайту, расположенное над быстрыми ссылками. Например, по запросу «New York Times» мы получим вот такой результат:

Если вы хотите, чтобы поле поиска выводилось рядом со сниппетом в результатах Google, вам нужно использовать структурированные данные на своем веб-сайте.

Выводы

Небольшие изменения в результатах поиска могут оказать большое влияние на трафик, кликабельность, конверсию сайта. Но нужно также учитывать, поиск Google — постоянно развивается, поэтому существующие сегодня правила могут не действовать завтра. В настоящее время вы можете следовать этому руководству, чтобы помочь улучшить свое присутствие в результатах поиска Google.

Вам также будет интересно:

Проседание сайта в поисковой выдаче, часть первая. Бесполезный контент, фильтры, ссылки и хостинг

25.07.2020 Время прочтения: 6 минут

Краткий пересказ: вернуть позиции очень трудно, стратегия SEO для такого сайта разрабатывается и внедряется гораздо сложнее – возвращать доверие поисковика тяжелее, чем завоевывать с нуля.

Это очень обширная и глубокая тема, в ней надо долго разбираться, поэтому мы решили узнать у SEO-специалистов нашей компании, что они думают на этот счет. Их ответов хватило на две статьи, и перед вами сейчас первая.

Бесполезный и / или дублированный контент сайта

Новые алгоритмы поисковых систем заставляют оптимизаторов все время быть начеку и держать сайты в тонусе: если веб-ресурс забрался в топ, то придется приложить усилия, чтобы поисковик не передумал.

А очень часто поисковики бывают недовольны контентом. И в нашей практике есть такой опыт. Рассказывает Виталий Леонтьев, начальник технического отдела:

«Приведем один из реальных примеров нашего клиента, сайта услуг по строительно-монтажным работам. Видимость проекта уверенно росла и затраты на продвижение полностью оправдывали себя до того момента, пока вдруг большинство позиций в ПС Яндекс не убавили по 20-30 пунктов.

Первая реакция – вероятно, сайт попал под санкции и в веб-мастерке обязательно будет об этом какое-то уведомление, но увы – в панели никаких нарушений не числилось. После продолжительного анализа возможных причин, было принято решение все-таки написать Платонам. И каково было наше удивление, когда ответ пришел довольно быстро и в нем четко давалось понять, что тексты на сайте не несут никакой пользы для посетителей, хотя до этого момента сайт отлично ранжировался.

Было очевидно, что в действие вступил алгоритм Яндекса – нам предстояло снять фильтр «Баден-Баден». За следующие 2 недели копирайтеры приложили огромные усилия для наполнения сайта качественными и действительно полезными текстами, которые помогали потенциальному клиенту-посетителю сайта сделать правильный обоснованный выбор. После длительной переписки со службой поддержки Яндекса и спустя 2 месяца сайт начал постепенно возвращать утраченные позиции.

Если вы еще задаетесь вопросом, тяжелее ли будет продвигать просевший в позициях сайт, то да – тяжелее, потому что для этого неизбежно придется прилагать определенные усилия, но в конечном результате это только усилит ваш ресурс и вполне вероятно выведет его на новые уровни».

Хуже, только когда отсутствие пользы для посетителя сочетается ещё с дублированием контента на сайте. Вот другая история с текстовым наполнением ресурса – из опыта оптимизатора Ирины Маслянцыной:

«Видимость сайта badiesel.ru в поисковых системах упала – одной из причин тому стала неуникальность текстов и дублирование контента.

На сайте остались порядка 24 страниц с описанием услуг по ремонту частей двигателя в зависимости от марки автомобиля. Примеры по ссылкам:

Структура этих страниц одинакова, текстовый контент дублируется: одинаковые прайс-листы на ремонт, телефоны для связи с компанией, меняется только марка авто. Для пользователей эти страницы не приносят никакой пользы».

Фильтры

Отчасти мы затронули этот вопрос в предыдущем пункте, но поскольку фильтры накладываются не только за бессмысленные тексты, Константин Абдуллин, технолог SEO-эксперт, раскрывает вопрос подробнее:

«Если позиции упали из-за наложения фильтров, нужно будет провести большую работу над сайтом.

Во-первых, нужно определить, какой фильтр был наложен на сайт. Ни в коем случае нельзя вслепую продолжать работу над сайтом. При резком изменении в позициях следует сразу же получить ответы на следующие вопросы:

  • Какие изменения в алгоритмах поисковых систем были недавно?
  • Нарушает ли мой сайт правила поисковых систем?
  • Какие были изменения на сайте последнее время?
  • Могли ли пользователи попасть на сайт из поисковых систем последнее время?

На этом этапе уже будет примерно понятно, связано ли это резкое падение с проблемами на технической стороне сайта или падение произошло из-за вмешательства поисковиков.

Во-вторых, после определения, какие санкции наложил поисковик, нужно понять и сформулировать стратегию, как выйти из-под фильтра.

  • Если это «Баден-Баден» от Яндекса, то нужно будет провести большую работу по рерайту и форматированию текстового контента на сайте.
  • Если это «Панда» от Google, то тут придется переделать практически весь сайт, чтобы он стал дружественнее как для поисковых роботов, так и для пользователей.

В-третьих, это быстрая и качественная работа специалистов. Когда обнаруживается какой-то конкретный фильтр, то тут уже ценна каждая минута и нельзя медлить. Грамотный SEO-специалист способен вывести сайт из-под фильтра за минимальное количество времени (хотя тут всё зависит от фильтра).

Увы, не всегда вывод из-под фильтра может привести к последующим повышениям позиций сайта. В таком случае остается только закрывать его от индексации и переезжать на новый домен. Таким образом, после «фильтрации» сайта продвигать сайт в поисковиках может быть действительно труднее».

Другие фильтры, выйти из-под которых сложно, – АГС и «Минусинск» от Яндекса. По словам нашего оптимизатора Марии Щипановой, «чтобы выйти из-под фильтра, необходимо проанализировать ссылочную массу сайта и снять платные некачественные ссылки. Последствия «Минусинска» и работы по тому, как выйти из-под фильтра – это надолго: восстановление позиций сайта после «Минусинска» может занять 6-12 месяцев. Выход из-под фильтра осложняется тем, что за съем ссылок возможно придется платить деньги, либо модератор сайта-донора может просто отказать от снятия ссылок. Кроме того, резкое снятие ссылок может отрицательно повлиять на позиции в Google.

Также при резкой просадке всех позиций сайта можно увидеть уведомление в Яндекс.Вебмастере о наложении фильтра АГС. Накладывается за большое количество исходящих ссылок и неуникальный контент, при этом обнуляется тИЦ сайта. АГС боятся больше всего, но справиться с ним не так сложно. Для выхода из-под санкций необходимо поработать над ссылочной массой, уменьшить количество исходящих ссылок и немного переработать контент на сайте. Если все сделано правильно, то после апдейта Яндекса тИЦ должен вернуться и позиции сайта восстановятся».

Реальный пример – наш проект, уже упомянутый сайт badiesel.ru, который оптимизировала Ирина Маслянцына:

«Из-за переспама ключевых слов видимость сайта badiesel.ru упала с 45 % до 20 %, в результате снизился и поисковый трафик на сайт.

Примерно с декабря 2020 года началось резкое понижение позиций сайта почти по всем запросам сначала в Яндексе, затем в Google. При этом в Я.Вебмастере никаких уведомлений о наложении фильтров не поступало.

Ответ из техподдержки Яндекса убедил в том, что на сайт действительно попал под санкции:

«На www.yandex.ru действует поисковый алгоритм, который может оказывать влияние на ранжирование страниц, содержащих тексты, предназначенные в первую очередь не для пользователей, а для влияния на поисковую систему. Более подробную информацию об этом Вы можете найти на странице: https://yandex.ru/company/rules/optimization/

Поэтому рекомендуем Вам пересмотреть контент, например, на https://badiesel.ru/novosti_i_fakty/remont-toplivnyix-nasosov-vd-dvigatelej-gruzovikov странице сайта, отталкиваясь от интересов и удобства посетителей. Продолжайте развивать сайт согласно указанным рекомендациям, и со временем позиции интересующей Вас страницы в выдаче могут улучшиться».

Было не совсем понятно, почему именно ту страницу поисковик признал некачественной. Но продолжили работы по улучшению сайта:

    Переписали все тексты на главной странице, страницах с основными услугами:

Позиции сайта начали медленно расти с марта 2020 года, но видимость сайта не выросла до ранее достигнутого уровня.

Скриншот из Я.Метрики сайта badiesel.ru

SEO-оптимизатор Мария Щипанова отмечает: «При выявлении причины просадки позиций по сайту полезно будет проанализировать выдачу топ-10 в общем. Если существенно потерял позицию только ваш сайт, а конкуренты остались на своих местах, то это, скорее всего, фильтр. Если же вся выдача топ-10 изменилась (2-3 сайта вылетели совсем, появились новые конкуренты на 1 и 2 местах и т. д.), то это возможно последствия действия алгоритма.

Алгоритм Яндекса «Многорукий бандит» выводит новые сайты в топ-10, после этого собирает статистику, следит за поведенческими факторами пользователей в течение некоторого времени, затем сайт либо остается в топе, либо позиции снижаются. Основной признак действия данного алгоритма – резкие скачки позиций +/- 20-30 между апдейтами. После стабилизации выдачи через 3-4 месяца позиции могут восстановиться на одном уровне».

Бывают ситуации, когда и вовсе лучше перейти на новый домен, например, часто при создании новых сайтов веб-мастера копируют контент с других ресурсов, и подобные сайты отправляются под АГС-фильтр, полностью пропадая из поискового индекса. История такого сайта будет сильно испорчена на самом старте, и в таких случаях если доменное имя ничем не примечательно, то возможно имеет смысл полностью от него отказаться и зарегистрировать новый адрес, не повторяя старых ошибок на нем».

Большие изменения, ссылки, проблемы с хостингом

  • Крупные изменения на сайте (например, резкая смена дизайна, изменения в структуре и другие) практически во всех случаях приводят к спаду в seo-позициях.
  • Наращивание ссылочной массы прекратилось. Поисковики всегда ведут борьбу с искусственным формированием ссылочного профиля сайта.
  • Конкуренция. Необходимо осуществлять конкурентный анализ для продвигаемого сайта и следить за тем, чтобы все важные изменения и улучшения появлялись у вас ещё раньше.
  • Остановка продвижения сайта в социальных сетях.
  • Хостинг. Необходимо следить за тем, чтобы мощности используемого хостинга хватало при увеличении нагрузки на него.
  • Проверить техническое состояние сайта:
    1. убедиться, что адреса продвигаемых страниц не изменились, как и их содержимое;
    2. проверить внешние ссылки;
    3. уточнить какие страницы находятся в индексе, а какие нет;
    4. проверить изменения в безопасности сайта;
    5. уточнить нет ли на сайте систем, которые могут имитировать действия, совершаемые пользователями.
  • Проверить, используются ли запрещенные методы продвижения сайтов, и отказаться от них:
    1. скрытый или невидимый текст на сайте;
    2. переспамленные тексты;
    3. массовое размещение ссылок, а также использование seo-ссылок; (узнайте, как вывести сайт из-под фильтра Яндекса «Минусинск»)
    4. выделение ключей жирным шрифтом;
    5. копированный контент;
    6. искусственное увеличение значений показателей поведенческих факторов».

Почему сайт просел в поиске: 9 фатальных ошибок, способных угробить любой сайт

Поисковая оптимизация – большая работа над множеством различных факторов. Дизайн, техническая составляющая, контент. Даже незначительные на первый взгляд детали очень важны для продвижения. О самых частых ошибках в дизайне сайта мы уже говорили. Сегодня разберем 9 фатальных SEO ошибок, способных «угробить» любой сайт.

    Фильтры и санкции поисковых систем

Как минимум, раз в неделю рекомендую заглядывать в вебмастера Яндекс и Google для проверки наличия санкций. В Яндексе это можно сделать в разделе Диагностика → Безопасность и нарушения. В Google – Поисковый трафик → Меры, принятые вручную.

Как показывает наша практика, чаще всего владельцы сайтов даже не догадываются о наложенных ограничениях. Недавний пример из нашей работы:

Большое количество чужих текстов на сайте и открытые исходящие ссылки. Результат на скриншоте.

До снятия всех ограничений дальнейшего смысла заниматься продвижением нет. Исправляем все ошибки, сообщаем поисковой системе и ждем снятия санкций.

Контент

Мы постоянно говорим о том, как важны тексты. Контент – это то, зачем пользователи заходят на сайты. Неуникальный и неинтересный контент никому не нужен. Поисковые системы занижают подобные ресурсы в выдаче, а клиенты устали читать одни и те же шаблонные тексты на сотне сайтов. Пруф того, что за контент можно вылететь с хороших позиций, тут.

Проверяйте уникальность текстов перед размещением на text.ru.

Как писать тексты, на какие страницы и в целом, о контенте, много написано в нашем блоге. Вот хорошая подборка статей от нашего копирайтера Дарьи.

Теги Title и Description, заголовки H1-H3

Основа SEO-продвижения – правильно подобранные ключевые слова. Это очень важный фактор в оценке релевантности вашего сайта поисковому запросу.

Чаще всего мы сталкиваемся с двумя ошибками. Полное отсутствие ключевых слов в тегах:

Тег Title должен быть заполнен в виде связного предложения с включением ключевых слов.

Либо переспам ключами в заголовках:

Важно найти золотую середину. Теги должны быть полезными не только для поисковых роботов, но и для обычных людей. Не забывайте об информативности. Как правильно писать теги title, description и заголовки H1, хорошо рассказывает наш копирайтер Екатерина в своей статье.

Переезд на https

C января 2020 года браузер Google Chrome (начиная с 56 версии) начал помечать все HTTP-сайты, содержащие любые формы, передающие личные данные пользователей (email, пароли, данные кредитных карт и т.п.) как «небезопасные». Также наличие SSL сертификата является небольшим импульсом в ранжировании в Google.

Всем интернет-магазинам в первую очередь следует перейти на протокол https. При этом очень важно соблюсти правильный алгоритм действий.

Самая частая ошибка – просто настроить 301-редирект со старой версии http на https после покупки SSL-сертификата. Владельцы сайтов забывают о файле robots.txt, директиве Host, настройке вебмастеров. Сайт с http выпадает из индекса, новый сайт на https еще не проиндексирован. Все позиции моментально улетают в трубу.

В нашем Блоге есть подробная инструкция, как правильно перенести сайт с http на https. Если останутся вопросы, пишите нам, обязательно поможем.

Файл robots.txt

Текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле следует указать параметры индексирования своего сайта для поисковых роботов.

Иногда файл robots.txt отсутствует вовсе.

Свежий пример из нашей работы. Интернет-магазин станков, работы проводились в рамках услуги поисковое продвижение сайта. Сайт был полностью открыт для индексации поисковым роботам и вовсе не имел файл robots.txt.

Настроили ему robots, теперь все в порядке:

Что конкретно мы сделали?

Закрыли от индексации админ панель сайта, служебные страницы 404 и 403, страницу поиска, корзину. Указали адрес карты сайта, настроили директиву Host.

Вместе с остальными работами по оптимизации это помогло достичь следующих результатов:

Еще одна серьезная ошибка – сайт полностью закрыт от индексации. За это отвечают директивы Disallow и Allow, которые запрещают или разрешают индексирование разделов, отдельных страниц сайта или файлов соответственно. Для проверки файла у поисковых систем есть специальные инструменты: Яндекс и Google.

Проверьте, что у вашего сайта имеется файл robots.txt и заполнен он корректно. От индексации следует закрывать все служебные страницы, страницы поиска и фильтров. Страницы дублей, регистрации, авторизации. Корзину и страницу оформления заказа для интернет-магазинов. Подробнее о robots.txt.

Дублирование контента (дубли страниц)

Дублированный контент или просто дубли – это страницы на вашем сайте, которые полностью (четкие дубли) или частично (нечеткие дубли) совпадают друг с другом, но каждая из них имеет свой URL.

Одна страница может иметь как один, так и несколько дублей:

Поисковые роботы отрицательно относятся к дублированному контенту и могут понизить позиции в выдаче из-за отсутствия уникальности, а следовательно, и полезности для клиента. Нет смысла читать одно и то же на разных страницах сайта.

Может измениться релевантная страница. Робот может выбрать для выдачи дублированную страницу, если посчитает ее содержание более релевантным запросу. Сайт потеряет позиции и просядет в выдаче. В 90% случаев дубли мешают продвижению, и после их устранения позиции сайта улучшаются.

Как найти и убрать дубли на сайте, рассказываем в данной статье.

Зеркала сайта

Зеркалами считаются сайты, являющиеся полными копиями друг друга, доступные по разным адресам. Все зеркала сайта важно склеить через 301 редирект.

Показатели тИЦ, вес внешних ссылок не должны растекаться, а они будут, т.к. поисковики считают разными ресурсами сайты, расположенные по разным адресам. Возможна подмена релевантной страницы в поисковой выдаче, дублирование контента. 100% мешает росту сайта в выдаче.

Сайт не должен открываться по разным адресам, с www и без www, просто site.ru и site.ru/index.php, по http и https и т.д.:

Чек-лист для проверки:

  • Сайт должен быть доступен только по одному протоколу http или https.
  • Выбрано главное зеркало сайта, с www или без www, указано в Вебмастере.
  • Настроен 301 редирект со всех зеркал.
  • Главная страница сайта доступна по одному адресу, без /index.php, /index.html и т.п.
  • Адаптивная верстка (версия сайта для мобильных устройств)

    100% Must-have для всех сайтов в 2020 году. Сегодня рост мобильного трафика опережает компьютерный. Число пользователей, использующих смартфоны для совершения покупок, в мире растет с каждым днем. Алгоритмы поисковых систем учитывают адаптивность при ранжировании сайта в мобильной выдаче.

    Топ-пост этого месяца:  Круговые элементы интерфейса при помощи HTML5, CSS, JS и SVG

    Google уже с 2015 года использует алгоритм Google mobile-friendly.

    Яндекс год назад запустил алгоритм Владивосток.

    Если ваш сайт все еще не адаптирован под мобильные устройства – каждый день вы теряете до половины своих клиентов. Подробнее о том, зачем нужна оптимизация.

    Скорость загрузки сайта

    Тут все просто. Пользователям не нравятся медленные сайты. Поисковые системы так же отдают предпочтение быстрым, оптимизированным сайтам. Проверить скорость загрузки своего сайта можно с помощью инструмента Google. Красный – медленно, важно срочно увеличивать скорость, желтый – нормально, но можно оптимизировать, зеленый – отлично.

    Разберем на конкретном примере

    Помните, в начале статьи мы упоминали интернет-магазин станков. Что мы исправили из фатальных ошибок:

    Написали хороший продающий, уникальный текст на главную страницу сайта.

    Rusability

    Компания Google запустила новый формат результатов поисковой выдачи – Rich Cards, который направлен на улучшение опыта мобильных пользователей. Соответствующий раздел добавлен в отчётность Search Console.

    Rich Cards отображаются в выдаче как карусель карточек с изображениями высокого качества. Формат использует семантическую разметку Schema.org.

    На данный момент с форматом могут работать сайты кулинарных рецептов и киноресурсы.

    В настоящее время Rich Cards демонстрируются в мобильной версии google.com на английском языке.

    В будущем Google расширит доступ к формату для других типов сайтов и большего количества пользователей.

    Проблемы с ранжированием в Google

    День добрый, Илья. Ситуация с позициями в Google действительно достаточно странная. Проект фамилия-врача.ру полностью ориентирован на запросы с указанием Ф. И. О. врача и всё равно ранжируется заведомо ниже конкурентов. Фактически, никакой конкуренции по фразам нет. Это, местами, удивительно. Более всего поведение похоже на сильные хостовые санкции. Никаких оповещений в Google Search Console нет? Пингвин, ручные санкции, прочее?

    Позиции проекта в Google по набору брендовых запросов.

    Позиции проекта в Яндексе по аналогичному списку.
    Анализ проведён с помощью инструментов в сервисе Пиксель Тулс.

    Запросы из семантического ядра выше выбраны так, что фактически домен, является витальным ответом, но ранжируется с ограничениями. Конечно, на сайте много оплошностей по части SEO, но они вряд ли могли сказаться на ранжировании столь радикально и негативно.

    • Определенный хаос в robots.txt.
    • На главной нет заголовка h1, но много h2.
    • Дублирование контента внутри сайта.
    • «Проблемы» с контактной информацией (нет станицы с контактами) — более серьёзный просчёт.
    • И так далее.

    Домен фамилия-врача.ру хорошо ранжируется в Google только по совсем мНЧ-фразам вида [вегетососудистая дистония гандельман] и схожим. Эти фразы больше выдуманные (всего порядка 500 найденных ответов).

    Достаточно странно ведёт себя поисковая система при запросе самого имени проекта. Предлагается автоматическое исправление доменной зоны на .com.

    Варианты проблем и дальнейших действий

    Хостовые фильры (сложно понять, по какой причине они могли быть получены, но полной историей по домену мы не располагаем, может быть ранее там размещалось что-то более спамное или «игривое») или имеются основания для применения ручных санкций. Резкий вспышек числа доноров — не было.

    Проблемы (какие-то существенные) с окружением проекта (на хостинге на том же IP — очень много сайтов):

    Рекомендовали бы рассмотреть следующие варианты дальнейших действий:

    Попытаться связаться с представителями службы поддержки Google для разъяснения ситуации (подозреваем, что сайт не является официальным для врача, так что тут могли быть просто применены ручные санкции и тогда никакого положительного эффекта от общения не будет).

    Смена хостинга и покупка выделенного IP.

    Смена доменного имени (подобрать схожие варианты).

    Добавление реальной контактной информации.

    Данные изменения должны будут нивелировать тот негативный эффект, который имеется сейчас и проект покажет рост. Удачи в снятии ограничений и динамики позиций!

    Google запускает новый вариант отображения поисковой выдачи

    Google запускает новый формат отображения результатов поиска на десктопах. Cпециалисты дали этому обновлению название «Breadcrumb SERPs»

    Сам формат представляет собой блок в верхней части страницы выдачи. В блоке содержатся «хлебные крошки» и прокручиваемая карусель изображений.

    Нововведение показывается при вводе информационных запросов.

    Нововведение является еще одним этапом на пути к окончательному запуску mobile-first индекса. В Google пока никак не прокомментировали ситуацию.

    Новый поисковый алгоритм Гугла (Google Panda)! Последние изменения, какие факторы учитываются?

    Заметные изменения в поисковой выдаче Google стали наблюдаться, когда был запущен новый алгоритм Гугл Панда. Но в конце апреля этого года, прямо перед майскими праздниками, многие оптимизаторы и веб-мастера стали панически обсуждать непонятные и очень резкие «падения» позиций сайтов в поиске Гугла. И произошло это не случайно. 24 апреля было опубликовано официальное заявление разработчиков поисковой системы Google, в котором были анонсированы последние изменения в поисковом алгоритме Google Panda и сообщено о запуске нового алгоритма Google Penguin.

    Полная версия новости от разработчиков Гугла представлена чуть ниже, а сейчас я расскажу главные моменты для тех, у кого мало времени и кто любит «зёрна отделённые от плевел».

    Что же произошло перед майскими праздниками и почему тысячи сайтов потеряли свои позиции в поиске? Стоит отметить, что некоторые страницы по определённым запросам «упали» на 50 и более позиций, что вызвало немалую панику в SEO кругах. Десятки тем и обсуждений на популярных форумах вызвали не малый ажиотаж, и набрали уже тысячи сообщений (вот одна из тем http://forum.searchengines.ru/showthread.php?t=711171).

    Если бы это были обычные «докрутки» от разработчиков Гугла или временный баг, вряд ли бы подобная тема становилась всё популярнее с каждым днём. Недельку «поштормило» и всё вернулось на свои «прежние» места – так бывает, к примеру, с Яндексом. Но Google в этот раз не «глючил». Все «падения» сайтов в поиске были вызваны вводом новых «правил» борьбы с некачественной оптимизацией и некачественными сайтами.

    Казалось бы, что здесь нового? И Яндекс и Гугл уже давно заявляли о том, что в ТОПе будут только качественные сайты, и скоро мы придём к поисковому «коммунизму»! К примеру, разработчики Google Panda (Амит Сингал и Мэтт Катс) довольно понятно рассказали, каким сайтам будет дан «красный свет» в поисковой выдаче Google. Для тех, кто ранее не видел этот список, рассмотрю его более подробно. Итак, ГСами или просто «не заслуживающими доверия» и некачественными сайтами с недавних пор считаются:

    Какие факторы учитывает новый алгоритм Google Panda?

    1) Сайты, которые любят воровать чужой «контент». Если на web-ресурсе очень много неуникальных статей (проще говоря, копипаста), то это уже «первый звоночек». Если сайт старый и «трастовый», ставящий ссылки на источники «заимствованных» статей, его вряд ли накажут только за этот фактор, но все же, для любого сайта существует критический процент, за который выходить очень чревато!

    Какой процент безопасен? Спросите у разработчиков Гугла, а лучше не испытывайте судьбу и алгоритмы поисковых систем. Хотя для молодых сайтов этот процент очень не велик. Но о вреде неуникального контента знают даже новички. Если Вы слышите об этом в первый раз, советую проверять Ваши статьи на уникальность. И Advego Plagiatus Вам в помощь.

    2) Многие сайты занимаются продажей ссылок. А как же иначе, спросят многие? Мы ведь хотим извлекать доход со своих сайтов! Спорить никто не станет, «хозяин-барин», на кого хотим, на того и ссылаемся. Но проблема в том, что Гугловской Панде это может не понравиться. Особенно если на сайте очень много ссылок не «по теме», или другими словами, ссылки на не тематические контенту страницы.

    Стойте! Зачем Вы меня пугаете? Я что не могу сослаться со своего SEO-блога на сайт моей бабушки, которая занимается вязанием, и держит фабрику швейных машинок? Я же не за деньги, это «по любви»! Никто не запрещает любить бабушек и ссылаться на сайты не Вашей тематики, но текст, окружающий ссылку должен быть тематическим.

    Другими словами, раз уж решили поставить ссылку на фирму пластиковых окон, тогда пишите рядом с ней статью про то, какие замечательные окна Вы установили своей маме на дачу, как у них много камер, и какие они теплосберегающие. Не забудьте в название статьи также вписать нужный «ключ», теперь к Вам претензий нет. И такая ссылка будет качественной и естественной в глазах любых поисковых систем.

    Про то, что современные «самообучающиеся системы» почти безошибочно определяют «некачественные» продажные ссылки (Яндекс анонсировал точность до 95%) мы уже слышали давно. Хотя про ссылочные биржи с автоматическим размещением (SAPE и пр.) я вообще не говорю, никто такие ссылки уже не называет естественными, как бы Вы их не оформляли.

    Текст ссылки должен соответствовать теме самой публикации, это мы поняли.

    3) Разработчики Гугла заявили, что приветствуют «белую» оптимизацию и будут наказывать за «чёрную» или, проще говоря, за переоптимизацию.

    О чём речь? Белая и чёрная магия, здесь всё понятно! Но что Вы имеете ввиду под «чёрным SEO»? Объясняю для тех, кто только постигает «науку» SEO джедаев.

    Очень многие новички любят продвигать свои страницы по популярным конкурентным запросам. Но, как правило, текст страницы не соответствует запросу. «Ну и правильно, зачем писать о том, что уже 100 раз написано? Лучше возьму любую страницу (статью), напишу к ней заголовок с нужным ключом, «натыкаю» повсюду в тексте нужных ключевых слов, выделю все нужные ключи жирным. Сделаю всё так, как учили бывалые «SEO-гуру» 10 лет назад. Гугл обязательно поймёт, что именно на мой сайт нужно направлять тысячи посетителей» — так подумал начинающий веб-мастер, и в итоге, его сайт «пал смертью храбрых» от страшного «фильтра» Гугл Panda.

    Если Вы в первый раз слышите об оптимизации страниц под нужные запросы, забудьте абзац, который я написал выше! Если содержание страницы НЕ соответствует запросу, под который Вы её оптимизируете и продвигаете, это также очень хороший повод попасть под фильтр.

    Пользователи должны находить качественный ответ по тому запросу, который искали. Тогда Вам будет счастье и на Ваш сайт снизойдёт «Божья благодать». И это совсем не ирония, а правда жизни. Не забываем, что поведенческие данные пользователей дают очень много полезной информации поисковикам. Иными словами, если Вы не заинтересуете пользователей Вашим контентом, и они, не найдя нужный ответ, уйдут снова искать дальше в поиск, это очень плохо. Подобные действия называются «отказами», которые существенно понижают «некачественную» страницу в поиске. А если будете и дальше «обманывать» доверчивых людей, Ваши страницы не только будут очень низко в поиске, но и вообще попадут под фильтр Google Panda.

    Думаем о людях, анализируем поведение пользователей с помощью специальных сервисов (Гугл Аналитикс, Яндекс Метрика) или хотя бы просто смотрите данные статистики счётчиков, наподобие LiveInternet.

    Ещё раз подчёркиваю очень важные факторы, которые разделяют качественные и некачественные сайты:

    • количество отказов (как часто пользователи не найдя ответ, сразу уходят обратно в поиск)
    • время, которое пользователи проводят на конкретной странице и на сайте
    • сколько людей возвращается на Ваш сайт? А может он очень качественный, постоянно обновляется, и на него приходят из закладок и по другим ссылкам?

    Все эти показатели с недавнего времени напрямую влияют на позиции Вашего сайта в поиске. Именно пользователи «решают» быть Вашему сайту в ТОПе, или чуть ниже.

    Так стоит ли подстраиваться под какие-то требования текущих алгоритмов?

    Не стоит. О «белой» оптимизации я рассказывал в своём видеокурсе по SEO, а Вам посоветую думать о том, как угодить пользователям и как «удержать» их на сайте. Если для Вас пользователи будут на 1-м месте, тогда никакие Google Панды Вам не страшны!

    4) Вы любите писать свои «творения» и создавать новые страницы на основе шаблонов? Ой, боюсь, что Гугл Панде это совсем может не понравиться.

    «Я пропал! У меня же дизайн сайта на популярном шаблоне! Конец моему супер блогу» — закричал один из начинающих «сео-гуру». Нет, речь не о дизайне, не о теме оформления Вашего замечательного сайта. Пандочка может «покарать» Ваши шаблонные публикации. Имеются ввиду похожие по содержанию статьи, но оптимизированные под разные ключевые запросы. Вот этого не стоит делать. Всё что делается ручками и с «душой», это хорошо. Всё что делаем на автомате и на потоке, тут могут быть проблемы.

    5) Ни для кого, думаю, не секрет, что поисковые системы очень пристально следят: на кого Вы ссылаетесь, и кто ссылается на Вас. Поэтому не стоит ссылаться на «некачественные» ресурсы, «дружить» с плохими сайтами и получать с них ссылки. Думаю, от этого совета никто не удивился.

    «Скажи мне на кого ты ссылаешься, кто ссылается на тебя, и я отвечу кто ты на самом деле» — Google Panda.

    Факторов, которые влияют на поисковую выдачу, безусловно, гораздо больше. И они учитываются в разных сочетаниях. Но самые важные я описал выше и уместил их всего в 5 пунктов.

    В принципе, для тех, кто знаком с последними новшествами поисковым систем, ничего нового сказано не было. Вроде бы напрашиваются банальные выводы:

    — делайте сайты для людей, улучшайте удобство и функциональность (юзабилити). Следите за поведением (настроением) пользователей. Делитесь с ними действительно качественным контентом, который максимально полно отвечает на их запросы.

    Вроде ничего нового не сказал. Кто-то даже разочаровался: «А где же секреты, как обмануть этот алгоритм Google Panda и всегда быть в ТОПе?»

    Никого обманывать и ни под кого подстраиваться не нужно! Тот, кто пытается найти «лазейки» для своих некачественных сайтов, в итоге обречён на провал, и любые «SEO секреты» ему не помогут.

    От себя могу сказать, что у меня есть немало хороших посещаемых сайтов, некоторым их них уже более 10 лет. И они как были качественными 5-10 лет назад, так и остаются на «уровне». Так как они созданы и развиваются для людей, для пользователей. И никакие новые алгоритмы им нипочём. Ресурсы, которые любимы пользователями и имеют свою аудиторию, обладают потрясающим «лимитом» доверия со стороны поисковых систем.

    А вот сайты, которые создавались ТОЛЬКО для заработка на ссылках и рекламе, с некоторыми из них бывают проблемы. Тут ничего нового.

    Также признаю, что продвигать молодые коммерческие сайты стало существенно сложнее. Я это вижу по увеличению числа заказов на размещение вечных качественных ссылок. Тематический обмен ссылками также стал очень популярным.

    На этом я заканчиваю свои рассуждения о нововведениях Гугла. Для тех, кто любит читать послания от первоисточника, перевожу на русский язык заявление разработчиков Гугл Panda.

    И, как говорится, простите меня за мой английский.

    Перевод официальной новости (Another step to reward high-quality sites) от разработчиков алгоритма Google Panda или «награда для высококачественных сайтов»:

    Представители Google заявили, что поисковая оптимизация или SEO, может быть позитивной и даже конструктивной. Эффективная поисковая оптимизация может улучшить восприятие (понимание) сайта поисковыми системами и сделать отдельные страницы более понятными, за счёт чего их легче будет найти. Поисковая оптимизация включает в себя такие вещи как: исследование ключевых слов, чтобы гарантировать, что нужные слова присутствуют на странице, а не только профессиональный жаргон, на котором нормальные люди почти никогда не пишут.

    «Белая» оптимизация, как правило, улучшает юзабилити (удобство) сайта, помогает создать более качественный контент, сделать сайты быстрее, что хорошо как для пользователей, так и для поисковых систем. Грамотная поисковая оптимизация также подразумевает хороший маркетинг: творческий подход, чтобы улучшить сайт и сделать его более привлекательным, может помочь как поисковым системам, так и социальным медиа. Итоговым результатом может стать создание отличного сайта, намного более полезного для людей.

    Противоположностью «белому SEO» можно назвать так называемое «чёрное SEO или webspam» (мы ввели термин «webspam», чтобы не путать со словом «спам»). Чтобы получить более высокие позиции в поиске и больший трафик (посещаемость), некоторые сайты применяют методы, целью которых является исключительно поиск «фишек» и «лазеек», которые помогут ранжировать определённые страницы на более высоких местах, чем они заслуживают при «честном» подходе. Мы видим различные попытки вебспама практически каждый день. Идёт манипуляция ключевыми словами, используются ссылочные «сетки», чтобы получить более высокие позиции в поиске.

    Целью многих изменений наших поисковых алгоритмов является оказание помощи в нахождении сайтов, которые содержат большой опыт пользователей, и соответствуют их информационным потребностям. Мы также очень хотим, чтобы «хорошие парни», которые делают качественные и полезные сайты для людей, а не для алгоритмов, увидели, что их усилия оцениваются по достоинству. Именно для этого мы внесли изменения в Panda, которые позволили представить в результатах поиска существенно более качественные сайты. Также в начале этого года мы запустили алгоритм «макета страницы», который понижает в результатах поиска сайты, содержащие малое количество контента на странице (above the fold). В частности, «наказываются» сайты, которые закрывают основной контент рекламой, всплывающими окнами т.д. «Первый экран» должен быть свободен, а пользователи должны сразу видеть содержимое страницы, которое они ищут.

    В ближайшие дни будут запущены изменённые алгоритмы, направленные на борьбу с вебспамом. Данные нововведения позволят понизить в поиске сайты, которые нарушают существующие требования Google. Мы всегда нацелены на борьбу с webspam, и данный алгоритм представляет последние достижения в вопросе уменьшения влияния некачественных методов SEO (webspam).

    Таким образом, будет достигнуто улучшение качества поиска и представленного контента. Несмотря на то, что мы не можем разглашать какие-то конкретные принципы работы нового алгоритма, чтобы не дать кому-то возможность искусственно влиять на результаты поиска и ухудшить его качество для пользователей, мы дадим несколько советов веб-мастерам. Следует создавать высококачественные сайты, которые будут содержать полезный опыт и ценную информацию, использовать «белые» методы SEO, но ни в коем случае не применять агрессивную тактику чёрного SEO (webspam).

    Вот пример сайта, на котором использована тактика вебспама (webspam), «игра» ключевыми словами, которая будет «наказана» поисковыми алгоритмами (нажмите на картинку, чтобы увидеть в полном размере):

    Конечно, большинство web-страниц, пострадавших от этого изменения не имеют столь вопиющих нарушений. Вот ещё один пример сайта с необычными ссылочными связями, которые также нарушают правила, и будут подвергнуты «санкциям». Обратите внимание, что если вы попытаетесь прочитать представленный текст вслух, вы сразу обнаружите, что исходящие ссылки не имеют никакого отношения к реальному содержанию.

    Нажмите на картинку, чтобы увидеть в полном размере:

    Объекты (страницы сайтов), которые пострадали от этого изменения, не всегда могут быть легко определены как вебспам. Но на основе глубокого анализа и экспертизы, становится понятно, что они также нарушают требования. Подобные сайты применяют гораздо больше, чем позволено методами белого SEO. Учитывая этот факт, мы считаем, что они используют (пусть и частично) тактику webspamа и пытаются манипулировать результатами поисковой выдачи.

    Изменения вступят в силу на всех языках одновременно. После ввода первой версии алгоритма Google Panda существенно пострадали около 12% запросов. Нынешняя версия Панды затронула только 3,1% запросов на английском языке до такой степени, что пользователь может это заметить. В таких языках, как китайский, немецкий и арабский были затронуты около 3% запросов, процент может быть более высоким в языках, которые более подвержены спаму. К примеру, 5% польских запросов изменятся настолько, что это заметят обычные пользователи.

    Мы хотим, чтобы люди использовали «белые» методы поисковой оптимизации (либо вообще не использовали никакой оптимизации) и сосредоточились на создании красивых и содержательных сайтов. Как и всегда, мы открыты для обратной связи и готовы искать пути для улучшения наших поисковых алгоритмов.

    Для тех, кому интересна дополнительная информация про обновлённый поисковый алгоритм Гугла (Google Panda), предлагаю посмотреть видео доклад Артёма Бородатюка на канале Megaindex.tv.

    Мнение SEO специалистов об обновлённом алгоритме Гугл Панда (видео):

    Буду рад «услышать» Ваши мнения о Гугл Панде в комментариях. Повлияла ли Google Panda на Ваши сайты?

    Если вы хотите на практике научиться выводить сайты из под Google Panda, рекомендую вам новый (2020 год) уникальный видео-кейс «Как вывести сайт из-под «фильтров» (санкций) поисковых систем Google или Яндекс?».

  • Добавить комментарий