Google игнорирует большую часть неестественных ссылок


Содержание материала:

Google игнорирует большую часть неестественных ссылок

Уникальный контент в каталоге и доске
объявлений не может быть по определению.

Если делаете каталог, то забудьте
про посетителей с поисковых систем.

Google сейчас начал искать
не про явление а само явление.

23.05.2012, 11:44 #4

Если Ваши тексты кому то нужны, то
их будут читать без поисковых систем.

Если Ваши тексты никому не нужны, то
зачем их искать поисковым системам?

23.05.2012, 11:59 #5

Вы сами поняли, что сказали..

Как раз по каталогу-то и шло больше всего! Из яндекса до сих пор идут. И в гугле прекрасно поднимался. Потом мы не принимаем, кого попало, модерация жесткая — только трастовые сайты с униканильным контентом и пр.

23.05.2012, 12:35 #6
23.05.2012, 12:40 #7
23.05.2012, 12:58 #8

Stroka, особенностью поисковой системы Google является то, что она индексирует все, что можно проиндексировать, но включает в основную выдачу не все страницы, а только те, которые, по мнению Google, соответствуют определенным стандартам. Страницы, которые не показываются людям, когда они ищут в поисковиках называются Супплементал Индекс(сопли). Так вот, ваш сайт можно найти по 100 страницам( в основном индексе ), вот почему такая посещаемость. Скорее всего это фильтр, ибо слишком жестоко засопленный индекс.

А теперь, для полной ясности скажу, почему с Яндекса к вам идут посетители. У яндекса нету резервного индекса, страницы, которые ему не нравятся, просто не включаются в выдачу. Так вот, у вас в яндексе 55000 страниц, а в гугле 100. Надеюсь закономерность уловили?

Отклонение обратных ссылок

Если в отношении вашего сайта были вручную приняты меры из-за искусственных ссылок на него, попробуйте удалить эти ссылки с тех сайтов, на которых они расположены. Также это необходимо сделать, если вы полагаете, что в отношении вашего сайта скоро будут приняты меры в связи с использованием платных ссылок или других схем обмена ссылками, нарушающих наши рекомендации по обеспечению качества. Если удалить ссылки не удается, отклоните их.

Мы делаем все возможное, чтобы другие сайты не могли негативно повлиять на рейтинг вашего сайта. Но в некоторых случаях входящие ссылки могут ухудшить мнение Google о вашем сайте. Например, это может произойти, если вы или нанятый вами специалист по поисковой оптимизации создали платные ссылки или применили другие схемы обмена ссылками, которые нарушают наши рекомендации по обеспечению качества. Прежде всего рекомендуем удалить как можно больше таких ссылок из Интернета.

Шаг 0. Определите необходимость отклонения ссылок

В большинстве случаев Google может самостоятельно определить, каким ссылкам можно доверять, поэтому веб-мастерам обычно не требуется использовать этот инструмент.

Когда отклонение ссылок необходимо

  1. На ваш сайт указывает большое количество искусственных или низкокачественных ссылок.
  2. Из-за этих ссылок в отношении вашего сайта уже были или вероятно будут вручную приняты меры.

Шаг 1. Создайте список ссылок

Создайте текстовый файл со списком ссылок, которые вы хотите отклонить.

Формат файла со ссылками

  • Укажите каждый URL или домен на отдельной строке. Нельзя вводить полный путь, ведущий к определенному разделу, например example.com/ru/.
  • Чтобы отклонить домен или субдомен, укажите префикс domain: , например domain:example.com .
  • Используйте в качестве кодировки для текстового файла UTF-8 или 7-битные символы ASCII.
  • Название файла должно заканчиваться суффиксом .txt.
  • Чтобы добавить комментарий, поставьте в начале строки знак решетки (#). Google проигнорирует такие строки.

Пример

Если вы хотите отклонить URL или сайты, которые вы обнаружили в отчете о ссылках по вашему сайту, скачайте данные из отчета, нажав кнопку экспорта. Не забудьте удалить из скачанного файла те ссылки, которые не нужно отклонять.

Шаг 2. Отправьте список в Google

Теперь загрузите список страниц и доменов, которые вы хотите отклонить.

  1. Откройте страницу Отклонение ссылок.
  2. Выберите свой сайт.
  3. Нажмите Отклонение ссылок.
  4. Выберите созданный файл, нажав соответствующую кнопку.
  5. Обработка загруженных вами данных может занять несколько недель. По мере того как наши роботы сканируют сеть и заново обрабатывают встречающиеся им страницы, ссылки из вашего списка будут учитываться в нашем индексе.

Отклоненные адреса по-прежнему будут показываться в отчете о ссылках.

Джон Мюллер рассказал про ссылки, которые Google игнорирует

В рамках очередной онлайн-встречи с вебмастерами, Джон Мюллер из Google ответил на вопрос, связанный с линкбилдингом. Его слова внесли немного ясности в одну из малоизвестных частей алгоритма поисковой сети, отвечающей за обработку ссылок.

Как Google обрабатывает ссылки?

Вопрос был довольно точным. Вебмастер спросил про отношение Гугла к конкретному и весьма распространённому методу линкбилдинга.

Цитата:

Как Гугл обрабатывает обратные ссылки с анализаторов сайтов и пользовательских профилей? Анализаторы могут ссылаться на сайты, предоставляющие техническую информацию о доменах.

Пользовательские профили – это форумные профили. Когда человек регистрируется на каком-нибудь форуме, в профиле можно поставить ссылку на свой веб-сайт. Этим активно пользуются спамеры, автоматически регистрируя тысячи профилей. На некоторых форумах и биржах фриланса даже отдельный раздел есть для подобных услуг:

Каждое сообщение на форуме содержит отдельный блок, в котором находится ссылка на профиль участника. Иногда спамеры дополнительно генерируют несколько сообщений в темах сообщества, чтобы повысить шансы, что поисковые системы перейдут по этой ссылке на сайт, для которого осуществляется «прогон».

Это один из самых примитивных способов наращивания ссылочной массы. Естественно, уже давно придуман софт для полной автоматизации процесса, начиная с момента регистрации и заканчивая постами. Тут существуют даже «вспомогательные» услуги, вроде гарантированной индексации или дополнительных текстов.

Джон Мюллер ответил на вопрос, но охватил при этом больше простых техник линкбилдинга:

Расскажу про контент, генерируемый пользователями (UGC) и про сайты, автоматически генерирующие контент. По большей части мы игнорируем ссылки с таких сайтов, поскольку они ссылаются на всё подряд и их легко распознать.

Google игнорирует ссылки с профилей форумов

Джон Мюллер дал понять, что Google игнорирует ссылки с профилей форумов. Он назвал их UGC-ссылками. Стоит также обратить особое внимание на заключительную фразу Мюллера: «их легко распознать».

Это значит, что Гугл не использует какой-то причудливый механизм для анализа ссылок. Алгоритмы Google легко распознают их, как ссылки с форумных профилей и автоматически не учитывают. Скорее всего посылается соответствующий сигнал, они исключаются из ссылочного графа и не предоставляют преимуществ в ранжировании.

То есть простые ссылки игнорируются?

Джон Мюллер заявил, что автоматически генерируемые ссылки имеют нулевую пользу для ранжирования. Причина в том, что контекст такой ссылки не является контекстом, который Google хочет учитывать при ранжировании. Но они всё ещё могут быть полезны, например, для индексации. Поисковым системам будет проще находить ваш сайт.

Качественные обратные ссылки тяжело получать

Сайрус Шепард (основатель zyppy.com и один из авторов на moz.com) создал опрос в Твиттере, в котором спросил, что является наиболее сложной частью SEO:

The most difficult part of SEO is:

[for «other» leave comment]

Самым популярным ответом стал «Аутрич/PR» – ещё один из методов линкбилдинга. Второй наиболее сложной частью SEO было признано создание контента, достойного ссылок. То есть два варианта, связанные с ссылками, оказались самыми сложными.

Неудивительно, что за линкбилдинг голосовали чаще всего. Гугл обесценивает большое количество типов ссылок. Многие вебмастеры вообще не хотят работать с аутричем. Похоже, что старые методы получения ссылок перестают приносить дивиденды. И это способствует формированию представления о том, что линкбилдинг – это сложно.

  1. Что если линкбилдинг кажется сложным, потому что мы идём по неправильному пути?
  2. Может линкбилдинг представляется большинству трудным, потому что пришло время для новых подходов?

Определение ссылки, которая помогает позициям сайта в поисковых системах


Это настоящая ссылка, поставленная (независимо) тем, кто настолько увлёкся контентом, что решил рассказать о нём другим.

Во многих случаях вебмастеры при оценке ссылок склонны фокусироваться на неправильных метриках, вроде «трастовости» и т.п.

Как на счёт фактора энтузиазма?

Гугл призывает вебмастеров быть крутыми. Совет отличный, но немного расплывчатый. Ни в коем случае не критикую совет «быть потрясающим». В нём есть доля правды. Просто ему не хватает нюансов.

Энтузиазм, лояльность, страсть

Есть много вариантов пробудить в пользователе энтузиазм, лояльность или страсть.

  • Что сделало Яндекс, Apple или Amazon такими популярными?
  • Что заставляет вас искать сайт по названию бренда?
  • Как вы выбирали себе автомобиль? Вы хотели, чтобы он говорил окружающим о том, какой вы человек? Или просто купили самый дешёвый (для некоторых людей дешевизна тоже может быть «крутой»)?

На эти вопросы относительно легко ответить. На них сложно ответить, когда речь заходит о SEO.

Мы с вами знаем, что поисковые системы давно перестали уделять чрезмерное внимание анкорному продвижению. Это 12 лет назад можно было закупиться ссылками (а лучше просто проспамить гостевухи) с анкором «продвижение сайтов в Орле» и залететь в топ. Так почему же многие вебмастеры до сих беспокоятся по поводу процентов ссылок с точным вхождением?

Сеошники не хотят ничего менять, даже несмотря на то, что поисковые системы уже давно не те, что десять лет назад. Кто-то до сих пор использует регистрации в каталогах, подвальную перелинковку, ссылки с точек.

Не пора ли идти в ногу со временем?

Эволюция линкбилдинга

Возможно, пришло время изменить парадигму наращивания ссылочной массы. Это не первый раз, когда SEO-индустрия переходит на другой уровень в плане методов получения обратных ссылок.

Это не значит, что вы должны прекратить делать то, что считаете успешным. Есть хорошее выражение, которое на 100% справедливо для вебмастеров: «работает – не трогай». Просто всегда стоит присматриваться к альтернативам, наблюдать за деятельностью коллег и анализировать, как на неё реагируют поисковые системы.

ПОНРАВИЛАСЬ СТАТЬЯ? ПОДЕЛИСЬ С ДРУЗЬЯМИ!

Какие ссылки самые эффективные? 20 реальных примеров того, как Google оценивает ссылки

22 года назад основатели Google придумали PageRank и навсегда изменили интернет. Вот несколько изначальных принципов, отличающих PageRank от прочих факторов ранжирования:

Ссылки в сети подобны голосам. Изначально они равны (но ненадолго).

Страницы, которые получают больше голосов, становятся важнее в глазах Google и занимают более высокие позиции.

Чем важнее страница, тем важнее может быть её голос.

Google не остановился на этих постулатах: добавил анализ анкоров, тематическое соответствие, оценку контента, трастовые метрики, вовлечённость пользователя и прочие факторы.

Так ссылки перестали быть равными. Совсем.

В этой статье (автор оригинала — Сайрус Шепард) мы рассмотрим 20 актуальных принципов оценки ссылок. Некоторые из них подтверждены Google, другие — запатентованы. Обратите внимание, что это не жёсткие правила, а гибкие принципы, которые взаимодействуют друг с другом. Всплеск «свежих» ссылок может перевесить «мощные» ссылки, а спамные могут притупить эффект «свежих» и так далее.

Настоятельная рекомендация — старайтесь проверять правила на практике. Как говорит Рэнд Фишкин: «Нет ничего лучше для изучения SEO, чем эксперименты в диких условиях».

1. Ссылки с популярных страниц мощнее

Начнём с фундаментального принципа. Концепция, которая легла в основу оригинального патента PageRank и помогла превратить Google в самый популярный поисковик.

PageRank довольно сложная система, но если по-простому:

Чем больше ссылок, тем выше PageRank (и другие сигналы на основе ссылочной массы).

Чем выше PageRank страницы, тем весомее исходящая с неё ссылка.

В общих чертах, популярными страницами считаются те, что набрали больше голосов в естественных условиях. Оценивая ссылки, Google придаёт большее значение ссылкам именно с подобных страниц.

2. Ссылки в уникальном контенте ценнее тех, что «внутри» бойлерплейт-кода

Патенты Google, посвященные сегментированию страниц и бойлерплейт-коду (шаблонные элементы на странице), показывают, что ссылки в рамках уникального текста имеют больший вес, чем те, что находятся в сайдбарах, футере, хедере или любых других шаблонных элементах.

Для сайтов на популярных CMS это важный момент. Google чётко разграничивает основное содержание страницы и повторяющиеся неуникальные фрагменты кода. Даже руководство для асессоров призывает обращать внимание именно на уникальные элементы.

3. Ссылки «выше» в рамках контента работают эффективнее

Какую ссылку выбрали бы вы?

Размещённую на видном месте, в первом абзаце текста.

Размещённую несколькими параграфами ниже.

Вероятно, первую. Google действует так же — в патенте Reasonable Surfer описан метод, благодаря которому такие ссылки получают больший вес, ведь пользователи кликают на них чаще.

Однажды Мэтт Каттс (в прошлом глава команды по борьбе со спамом в Google) призвал оптимизаторов обращать внимание именно на первую ссылку в контенте и не «хоронить» под текстом важные ссылки.

4. Ссылки с релевантным и тематическим анкорным текстом имеют большее значение

Этот принцип также закреплён в патенте Reasonable Surfer. Более того, из его текста следует, что ссылки с нерелевантными анкорами ждёт девальвация или полное игнорирование.

Главное — избегать переспама и сохранять естественный разброс ключевых фраз на странице, в том числе для анкоров исходящих ссылок.

Судя по всему, так же работает текст, окружающий ссылку. Хотя доказательств этому меньше, но даже в патентах есть упоминания окружающего ссылку контента и важности тематической связности со страницей, на которую эта ссылка уводит.

5. Ссылки с уникальных доменов

Опыт показывает, что лучше иметь 50 ссылок с разнообразных доменов, чем 500 с одного и того же.

Это имеет смысл, ведь Google пытается определить популярность страницы в сети, а не в рамках какого-то одного ресурса, даже очень качественного. Подобная корреляция подтверждается большинством популярных исследований ссылок как фактора ранжирования.

6. Внешние ссылки весомее внутренних

Если расширить концепцию из пункта №5, то принцип приоритета внешних ссылок в качестве фактора ранжирования становится совсем очевидным. Чем больше внешних ссылок с разнообразных доменов (в родственной тематике), тем лучше.

При оценке ссылочной массы поисковики придерживаются концепции — важнее что и сколько говорят о нас другие (сайты), чем то, что мы сами о себе говорим.

Тем не менее, про внутреннюю перелинковку забывать не стоит. Грамотная архитектура сайта и удобная навигация могут существенно повысить ваши позиции и обрадуют пользователей.

7. Ссылки с доменов с высоким трастом

Идею и механику обновлённого TrustRank мы уже рассматривали, поэтому знаем, как важна эта комплексная метрика для Google. Кроме того, важна «длина» — то есть расстояние в ссылках между авторитетными донорами (сидами) в тематике и конечной целевой страницей. Чем расстояние короче, тем больший импульс получает ссылка.

Так PBN (приватные сети блогов, которые используются в black hat SEO) теряют эффективность, если сами не получают ссылок с авторитетных сайтов в тематике.

Google внимателен к онлайн-репутации ресурсов — от обзоров и отзывов до достоверности публикуемой информации. Это особенно актуально для YMYL-сайтов, которые затрагивают вопросы финансовой безопасности пользователей и их здоровья.

То есть ссылки с доменов, которые заслуживают доверие Google, ценятся гораздо выше, чем, например, с сайтов, вводящих пользователей в заблуждение.

8. Ссылки с тематически связанных страниц

Предположим, у нас молочная ферма. Какая ссылка для нас важна?

Сайт национальной ассоциации молочников.

Сайт ассоциации автомобильных механиков.

Снова очевидно. PageRank чувствителен к тематической связности, учитывается также фразовое индексирование и локальная принадлежность. Эта концепция также позволяет Google бороться со спамными ссылками.

9. Ссылки со «свежих» страниц

Google использует несколько методов для оценки свежести контента. Один из них — возраст ссылок, ведущих на страницу. Свежесть здесь эквивалентна актуальности. Если на страницу ведут ссылки с новых или постоянно обновляющихся документов, то это хороший сигнал для Google — содержание страницы акцептора также актуально.

Важно отметить, что устаревшие страницы — это те, которые:

Содержат утративший актуальность контент.


Получают всё меньше ссылок с течением времени.

Показывают снижение вовлечённости пользователей.

Таким образом, свежесть связана с актуальностью контента и активностью пользователей, а не с возрастом страницы.

10. Активный рост ссылок указывает на актуальность контента

Прирост свежих ссылок — позитивный сигнал для Google, влияющий на FreshRank и ранжирование. Но есть и обратный эффект, когда рост замедляется и ссылок приходит всё меньше, то, вероятно, страница уже устарела.

Такая концепция «свежести» зафиксирована в патенте «Information retrieval based on historical data» (поиск информации на основе исторических данных).

11. Google обесценивает спам и ссылки низкого качества

Хотя в сети триллионы ссылок, правда в том, что Google игнорирует большинство из них. Цель поисковой системы — сосредоточиться на ссылках, которые размещаются естественным образом, без нашего вмешательства.

Начиная с версии Penguin 4.0, Google закрепляет этот принцип и обесценивает ссылки, не соответствующие стандартам, то есть те, что получены с помощью схем обмена ссылками (покупка, чрезмерный обмен, масштабная реклама, автоматизация создания ссылок и прочее).

Некоторые специалисты по-прежнему считают, что некачественные ссылки не только игнорируются, но и способны понизить наши проекты в выдаче.

12. Ссылочное эхо — влияние ссылки может сохраняться даже после её удаления

Эффект реверберации или «призрачные ссылки» подтверждается экспериментами Рэнда Фишкина — даже спустя месяцы после полного удаления ссылок, Google несколько раз переобходил и индексировал страницы, на которые они указывали.

Возможно, для страниц с хорошими позициями Google оценивает постоянство или деградацию динамики ссылочной массы как некоторый отдельный показатель (на ограниченное время), и он перестаёт зависеть от фактического наличия ссылок. Но это лишь предположение.

В качестве контрапункта стоит упомянуть исследование Нила Пателя — и без того не самые высокие позиции сайтов с низким уровнем авторитета и траста резко ухудшились после одновременной потери большинства внешних ссылок.

13. Сайты, которые ссылаются на авторитетные ресурсы, также получают бонус

Хотя Google утверждает, что ссылки на качественные ресурсы не являются фактором, влияющим на ранжирование, Мэтт Каттс однажды заявил почти обратное:

«Так же как Google меньше доверяет сайтам, ссылающимся на спамные или некачественные ресурсы, он поощряет ссылки на хорошие сайты.»

Многочисленные эксперименты также подтверждают положительное влияние таких ссылок на позиции самого донора.

14. Ссылки на спамные ресурсы обесценивают и другие размещённые на странице ссылки

Это отчасти следует из цитаты Мэтта Каттса выше — Google не доверяет сайтам, ссылающимся на спамные ресурсы. Также концепция соответствует духу борьбы с PBN и платными ссылками.

Так, если на странице 3 ссылки, 2 из которых ведут на низкокачественных акцепторов, то последняя ссылка обесценивается вместе с ними.

15. Nofollow-ссылки не сканируются, но имеют значение

Если захотите подробно разобраться с атрибутом rel=”nofollow”, то загляните в наше руководство. В общих чертах — nofollow-ссылки создавались как метод борьбы со спамом и сообщают поисковикам «не нужно учитывать и ходить по этим ссылкам».

Есть только один нюанс, подвергающий сомнению полное игнорирование таких ссылок Google: «In general, we don’t follow them» или «в целом, мы не переходим по ним». Что обозначает «в целом» не особенно ясно, но оставляет повод для теорий, которые порой подтверждаются исследованиями.

16. JavaScript-ссылки передают вес, если Google способен их отрендерить

В далёкие времена, обычной практикой было сокрытие ссылок с помощью JS. Сегодня Google довольно неплохо сканирует и рендерит сайты на JavaScript и даже учитывает подгруженные с его помощью ссылки.

Но сканирование JS-элементов требует больше времени, кроме того код должен быть предельно доступным и чистым, а ссылки обязаны содержать атрибуты href.

17. Если страница ссылается на один и тот же документ, то первая ссылка имеет приоритет

А если ещё конкретнее, оценивается только первый анкор — он и учитывается при ранжировании. Будьте особенно аккуратны при внутренней перелинковке и помните про этот принцип, размещая несколько ссылок на важные страницы вашего сайта.

Ранее публиковались результаты экспериментов, в которых удавалось обойти правило приоритета первой ссылки на странице, но новые исследования давно не проводились.

18. Robots.txt и мета-тег robots способны повлиять на сканирование ссылок

Кажется очевидным, но для того, чтобы учитывать ссылку в алгоритме ранжирования, Google должен иметь возможность сканирования и перехода по ней. Ряд директив могут помешать этому:

URL запрещён к сканированию с помощью robots.txt.

Мета-тег robots или HTTP-заголовок X-Robots-Tag используют директиву «nofollow».

Для страницы настроена директива «noindex, follow», которая в конечном итоге для Google равнозначна «noindex, nofollow».

Частенько Google включает в индекс даже запрещенные директивами URL, если на него ссылаются другие страницы. Но ссылки остаются почти «невидимыми» и бесполезными.

19. Disavowed-ссылки не передают вес (как правило)

Google предусматривает возможность отклонения обратных ссылок. После дезавуации поисковик перестаёт их учитывать, но если в файле отклонения допущены ошибки (или Google просто так считает), то он может проигнорировать запрос и оставит вес ссылок без изменений.

20. Даже упоминания без ссылок могут положительно влиять на авторитет сайта

Google оперирует сущностями и умеет распознавать понятия, связанные с брендами, личностями, массовой культурой даже без HTML-ссылок.

Поэтому любое вхождение названия вашего бренда, уникальной услуги или продукта в текст, может расцениваться как ещё один дополнительный «голос». Это похоже на ассоциации, интегрированные в алгоритм ранжирования.

Важно: вся информация в статье актуальна для Google. Для продвижения в рунете необходимо ориентироваться ещё и на особенности алгоритмов Яндекса.

Так, тематические анкорные ссылки имеют наибольший вес для Google. Но, во-первых, нужно избавляться от коммерческих хвостов в таких анкорах, во-вторых, ссылочную массу необходимо разбавлять безанкорными ссылками. Спамные коммерческие анкоры и слишком большая доля анкорных ссылок являются признаками «SEO-ссылок» для Яндекса. И если Google «плохие» ссылки официально только обесценивает, то Яндекс может наложить серьёзные санкции на весь сайт (помним про алгоритм «Минусинск»).

В Яндексе нет и аналога файла отклонения ссылок Disavow links, и поэтому запретить учитывать нежелательную обратную ссылку не удастся, придётся искать другой способ избавиться от неё.

Инструменты для анализа ссылочной массы

Теперь, получив чуть более точно представление о том, как Google оценивает ссылки, пора приступать к работе над собственными проектами и применять знания в реальных условиях.

Для анализа внешней оптимизации в «Пиксель Тулс» есть отдельный раздел инструментов-помощников. Для работы над ссылочной массой и проверкой доноров используйте:

Пусть на ваши проекты ссылаются почаще и максимально естественно!

Новый инструмент дезавуирования ссылок от Google

Google представил новый инструмент, который позволяет отказываться от плохих ссылок (дезавуировать), ведущих на ваш сайт.

Если в веб-мастере вы получили уведомление о том, что на вас ссылаются «неестественные ссылки», этот инструмент поможет разрешить данный вопрос. Если же вы не получали такого уведомления, использовать данный инструмент без надобности ни к чему.

Для начала — напоминание. Ссылки являются одним из самых известных сигналов, которые помогают ранжированию в поисковой выдаче. Глядя на ссылки между страницами, мы можем получить представление о том, какие страницы являются авторитетными и важными, а, следовательно, имеют отношение к нашим пользователям. Ссылки являются одним из 200 факторов ранжирования, которые используются для определения соответствия запросов сайта теме. А так как параметры PageRank хорошо известны, он автоматически становится мишенью для спамеров. К слову, администрация Google постоянно пытается противостоять ссылкоспамерам.

Если когда-то вам уже приходилось иметь дело со ссылочным спамом, вы наверняка сталкивались с уведомлением в Webmaster Tools (веб-мастере) о «неестественных ссылках», указывающих на ваш сайт. Веб-мастера получают такие сообщения, когда возникают подозрения в покупке ссылок, обмене ссылками или других схемах, которые нарушают требования к качеству сайта.

Если вы получили такое сообщение, рекомендуется удалить как можно больше спамных и некачественных ссылок, ведущих на ваш сайт. Это оптимальное решение, поскольку позволяет решить проблему еще на начальной стадии. Полностью удаляя плохие ссылки, вы не даете Google (и другим поисковым системам) повторять подобные санкции в будущем. Также таким образом вы способствуете защите имиджа своего сайта, поскольку люди быстро обнаружат спамные ссылки, которые ведут на ваш сайт, и поспешат сделать опрометчивые выводы о вашем сайте/бизнесе.

Если же, потратив массу времени и сил, вы все же видите, что остались некоторые ссылки, которые просто необходимо убрать, переходите на страницу «Дезавуировать ссылки». Оказавшись здесь, укажите свой сайт.

После этого вам будет предложено загрузить файл, содержащий ссылки, от которых вы хотели бы отказаться.

Формат довольно прост. Все, что вам нужно — обычный текстовый файл с одним URL в каждой строке.
Этот файл может выглядеть следующим образом:

# Contacted owner of spamdomain1.com on 7/1/2012 to

# ask for link removal but got no response
domain:spamdomain1.com
# Owner of spamdomain2.com removed most links, but missed these
http://www.spamdomain2.com/contentA.html
http://www.spamdomain2.com/contentB.html
http://www.spamdomain2.com/contentC.html

В приведенном примере строки, начинающиеся символом #, считаются комментариями, которые Google игнорирует.
«domain:» — ключевое слово, указывающее на то, что вы хотите устранить ссылки со всех страниц на определенном сайте (в данном случае — на «spamdomain1.com»).

Также можно отказаться от ссылок на конкретных страницах (к примеру, три отдельные страницы на spamdomain2.com). В настоящее время веб-мастера поддерживают один отказ файла на сайт, файлы распределяются между владельцами сайтов в Webmaster Tools. Если вы хотите обновить файл, скачайте уже существующий файл, измените его и загрузите новый. Размер файла не должен превышать 2 Мб.

Отличное место для поиска плохих ссылок — «Links to Your Site» (ссылки на ваш сайт), функция в Webmaster Tools. На главной странице выберите нужный сайт, перейдите на Трафик>Ссылки на ваш сайт> Кто ссылается больше всего> Подробнее, затем нажмите одну из кнопок загрузки. Этот файл содержит список страниц, которые ссылаются на ваш сайт. Если нажать на «Скачать последние ссылки», можно еще увидеть и дату. Хорошее начало. Но убедитесь, что не загружаете весь список ссылок на ваш сайт — вы же не хотите убрать все ссылки?!

Чтобы узнать больше о функции, загляните в Справочный Центр Google, где веб-мастера с радостью рассмотрят ваши комментарии и вопросы. Видео о новом инструменте представлено ниже:

Стоит подчеркнуть, что инструмент разработан исключительно для опытных веб-мастеров. Не рекомендуется использовать его, если вы до конца неуверены, какие именно ссылки нужно убрать и четко не знаете, что нужно делать.

Нужно ли всем сайтам использовать данный инструмент?
Нет. Для большинства сайтов совсем не обязательно использовать этот инструмент. Если вы четко не понимаете, зачем он нужен, как его использовать и стоит ли использовать его вообще — не нужно.


Если ссылки дезавуированы, что дальше? Google точно будет игнорировать их?
Этот инструмент позволяет Google определить, какие ссылки вам бы хотелось дезавуировать, и, как правило, Google их игнорирует. Как и в случае с rel = «canonical», это сильное предположение, а не директива — Google оставляет за собой право доверять собственным суждением в крайних случаях. Но мы, как правило, будем использовать это определение, оценивая ссылки.

Как быстро после загрузки файла ссылки начнут игнорироваться?
Нужно провести повторное сканирование и индексирование дезавуированных URL-адресов еще до того, как ваши отказы вступят в силу, что может занять несколько недель.

Можно ли использовать данный инструмент, если речь идет о «черном SEO»?
Основная цель этого инструмента — помочь «избавиться» от ошибок, допущенных ранее плохими оптимизаторами или в процессе наращивания ссылочной массы. Если вам известно, где при наращивании ссылочной массы поставили ссылку от вашего имени (например, платные ссылки, которые проходят PageRank), рекомендуется связаться с сайтом, который ссылается на вас, и попытаться первым снять ссылки. Таким образом вы отстаиваете репутацию своего сайта, так как люди больше не будут находить спам-ссылки и делать негативные выводы о вашем сайте или бизнесе. Если, несмотря на приложенные усилия, снять обратные ссылки не удалось, используйте инструмент дезавуирования ссылок. В общем, Google упорно работает над тем, чтобы не допустить «удара» по ранжированию других веб-мастеров. Однако, если вы беспокоитесь о том, что некоторые обратные ссылки могут плохо сказаться на репутации вашего сайта, используйте инструмент дезавуирования ссылок, чтобы указать Google, какие именно ссылки нужно игнорировать. Опять же, мы строим наши алгоритмы с целью предотвращения «черного SEO», поэтому веб-мастерам не нужно думать о нем вообще.

Большинство ссылок на сайте — не моих рук дело. Мне все еще нужно избавляться от таких ссылок?
Обычно — нет. Google придает ссылке соответствующий вес, и при нормальных условиях не нужно дополнительно информировать Google о ваших ссылках. Применение данного инструмента возможно в случае, если вы нарастили ссылочную массу, которая вредит качеству сайта, после чего Google отправил вам предупреждение о «неестественных ссылках», но, несмотря на все усилия, все же остались ссылки, которые вы до сих пор не можете устранить.

Я загрузил хорошие ссылки. Как я могу отменить загрузку ссылок по ошибке?
Чтобы внести изменения, скачайте текущий файл дезавуированных ссылок, измените его, включая только те ссылки, которые необходимо игнорировать, а затем повторно загрузите файл. Потребуется время для того, чтобы файл прошел систему сканирования/индексирования, которая может затянуться на несколько недель.

Hужно ли создавать файл ссылок в качестве превентивной меры, даже если я не получил уведомления о неестественных ссылках?
Если ваш сайт пострадал от Пингвина, и вы считаете, что всему виной спам-ссылки или некачественные ссылки на ваш сайт, скорее всего, вам захочется просмотреть обратные ссылки и отказаться от тех, которые нарушают все рекомендации.

Если я загрузил файл, нужно ли сохранять запрос на пересмотрение?
Конечно, если вы получили уведомление, о «вторжении» на ваш сайт. Цель инструмента — дезавуировать ссылки, чтобы показать Google, какие именно ссылки нужно игнорировать. Если вы получили сообщение от веб-мастера, немедленно проведите «чистку» (включает снятие любой спам-ссылки). Как только вы завершили процесс, используйте инструмент дезавуирования ссылок, чтобы указать Google на оставшиеся ссылки, которые не удалось снять. Подождите некоторое время, чтобы дезавуирование ссылок в нашей системе стартовало. Только после этого запрос на пересмотрение может быть отправлен руководству команды по борьбе со спамом. Если результат удовлетворительный, только тогда можно удалять все уведомления.

Google: не все искусственные ссылки равны

Представитель Google Гэри Илш у себя в Twitter рассказал, о том, как Google относится к неестественным ссылкам.

Всем известно, что Google расценивает ссылки со спамных сайтов и искусственные ссылки по-разному. Однако разные виды искусственных ссылок также расцениваются не одинаково. Так, «грубые манипуляции со ссылками» (egregious link manipulation) приводят к понижению сайта в выдаче, в то время как остальные неестественные ссылки Google в большинстве случаев игнорирует.

Случилось что-то важное? Поделитесь новостью с редакцией.

11 типов ссылок, которые не любит Google. Официальная информация

Ниже представлен перевод одноименной зарубежной статьи от Джоханса Селбача (Johannes Selbach) с блога SEOP rofiler.com. Информация является очень актуальной в связи с последними тенденциями в алгоритмах Google.

Google обновил страницу со схемами обмена ссылками, которая показывает примеры обратных ссылок, считаемых поисковой системой за спам. Новое в списке – это статейный маркетинг или гостевой блоггинг с ссылками, полными ключевых слов, рекламные статьи с платными ссылками и ссылки в пресс-релизах.

В общем, есть много способов создать себе проблему. Вот полный их список:

1. Google не любит платные ссылки

Покупка или продажа ссылок, передающих PageRank, может негативно сказаться на рейтинге вашего сайта в результатах поиска. Сюда относится денежная оплата ссылок или постов, содержащих ссылки; оплата ссылок товарами или услугами; или предложение бесплатного продукта в обмен на обзор этого продукта с ссылкой.

Не покупайте и не продавайте ссылок, если вы не хотите рисковать своим рейтингом.

2. Google не любит активный обмен ссылками

Обмен ссылками с другими сайтами это вполне нормально. Например, сайты об исследовании дельфинов могут ссылаться на другие сайты об исследованиях дельфинов без всяких проблем и рисков.

Но если обмен ссылками выглядит неестественно (сайт об исследовании дельфинов будет ссылаться на магазин обуви, а тот обратно), Google может подумать, что вы занимаетесь получением неестественных ссылок.

Используйте здравый смысл при обмене ссылками с другими сайтами. До тех пор, пока этот обмен имеет смысл для посетителей сайта, все будет хорошо.

3. Google не любит масштабный статейный маркетинг или гостевой блоггинг

Публикация статей, в том числе гостевых, на других сайтах это нормальная ситуация. До тех пор, пока вы это не делаете массово. Если цель вашего гостевого блоггинга лишь в получении разных ссылок, то на сайт могут наложить санкции.

Публикуйте статьи на других сайтах лишь если вы, действительно, хотите предоставить хороший материал.

4. Google не любит автоматизацию и сервисы по получению обратных ссылок

Вероятно, вы видели рекламу инструментов и сервисов, которые обещали сотни (если не тысячи) обратных ссылок, которые можно получить небольшими усилиями. Надеясь на господство в результатах поиска, скорей всего ваш сайт будет забанен Google.

Остерегайтесь инструментов и сервисов по автоматизации внешнего продвижения. Если вы смогли найти эти сервисы, команда антиспама от Google также знает о них.

5. Google не любит текстовую рекламу, которая передает PageRank

Если вы покупаете рекламу на каком-либо сайте, убедитесь, что она использует атрибут rel=nofollow в ссылках. В противном случае, Google может подумать, что эта ссылка была приобретена с целью манипуляции.

6. Google не любит рекламные посты, содержащие открытые ссылки

Следуйте золотому правилу: всегда используйте rel=nofollow, если вы заплатили за статью или рекламу. Все, что платно и передает PageRank, приводит к санкциям.

7. Google не любит статьи или пресс-релизы, содержащие в себе явно оптимизированные ссылки

Если ваша статья содержит приведенный ниже абзац, то антиспам-алгоритм Google детальней присмотрится к вашему сайту.

“На рынке существует множество свадебных колец. Если вы планируете жениться, то нужно выбрать лучшее кольцо. А также вам нужно купить цветы и свадебный наряд“.

8. Google не любит низкокачественные ссылки с каталогов и социальных закладок

Если вы регистрируете свой сайт в сотнях каталогов, которые не дадут вам взамен ни одного посетителя, то это потраченные усилия. Игнорируйте такие площадки. Эти ссылки не помогут ранжироваться лучше в Google. Если же каталоги дают вам посетителей, то получение ссылки стоило приложенных усилий.

9. Google не любит массово полученные футерные ссылки

Некоторые сайты ссылаются ключевыми словами на другие сайты в своем футере. Эти ссылки всегда платные и не стоит их использовать для рекламы своего сайта.

Это не касается футерных ссылок типа “О нас” или “Доставка”, а речь идет о ссылках типа “купить цветы” или “свадебные кольца”.

10. Google не любит ссылки с виджетов, распространяемых по разным сайтам

Некоторые разработчики виджетов предлагают бесплатные виджеты с ссылкой на другие сайты: “Посетителей на этой странице: 1234 – купить свадебные кольца“.

Если разработчики предлагают прорекламировать ваш сайт с помощью подобных виджетов, убедитесь, что ссылки содержат nofollow-атрибут или вовсе не используйте подобные вещи.

11. Google не любит комментарии на форумах с ссылками в постах или подписях

Есть инструменты, которые автоматически отправляют комментарии на форумы.

“Это, действительно, классная информация! Большое спасибо!
Петр.
купить свадебные кольца | купить цветы | лучшая свадьба

Не используйте этот метод раскрутки своего сайта. Google не любит его. Остерегайтесь инструментов, которые автоматически рассылают ваши ссылки по форумам.

Все очень просто: Google не любит массовые и искусственные ссылки. Для получения хороших ссылок, ведущих к продолжительным результатам, используйте нормальные методы и инструменты.

Google игнорирует большую часть неестественных ссылок

Представьте, какой ужас меня охватил, когда проверяя Google Webmaster Tools, я обнаружил письмо о наличие «неестественных» ссылок на нашем сайте.

Когда я получил это предупреждение, я сразу понял, что вызвало его появление. Несколько месяцев назад, на форуме Traffic Planet было бурное обсуждение влияния негативного SEO (способ продвижения интернет-ресурсов на высокие позиции в поисковых системах за счет выкидывания из него конкурентов, воздействуя на их сайты внешними факторами ). Человек начавший эту тему, утверждал, что успешно использовал приемы негативного SEO против Дэна Тиеса, другие говорили, что эта методика не работает. Страсти кипели.

Сразу после введения Пингвина такая возможность действительно существовала, но затем Гугл подкрутил алгоритм с целью защиты от подобных атак. Рэнд (управляющий SEOmoz) был настолько в этом уверен, что включился в дискуссию и предложил в качестве эксперимента испробовать приемы черного SEO на SEOmoz.org.

Надо ли говорить о том, что спамерское сообщество с радостью приняло вызов.

Мы явно видели увеличение числа спамерских ссылок, в том числе и с сайтов содержащих в названии слово «black hat». Но мы не обращали на это внимание, продолжая работать в обычном режиме, делясь с пользователями интересной и актуальной информацией в области SEO.

При этом, мы не наблюдали никаких изменений в трафике или ранжировании.

Честно говоря, мы не видели никаких поводов для беспокойства. До тех пор, пока не пришло это предупреждение о «неестественных» ссылках.

Однако, как вскоре выяснилось, можно было не волноваться. Из последовавшего разъяснения Мэтта Каттса такие письма можно игнорировать. Эти письма вебмастера стали получать в связи с решением поисковика рассылать их даже если само наказание не будет наложено на сайт. Гугл уведомляет вебмастеров о «неестественных» ссылках, ведущих на их сайты, даже если эти ссылки не могут никак навредить.

    «Если вы вчера получили извещения о неестественных ссылках ведущих на ваш сайт, не стоит паниковать. Раньше, за этими сообщениями следовали санкции, применяемые ко всему сайту. Вчера мы сделали очередной шаг на пути к прозрачности и стали рассылать эти сообщения даже в том случае, если они никак не могут навредить, но кажутся поисковику подозрительными. Такое предупреждение может свидетельствовать о действиях противоречащих политике компании. С другой стороны, владелец сайта может быть совершенно ни при чем. Например, когда сайт злонамеренно пытаются опустить в выдаче. При этом, владелец сайта получит наше предупреждение, но ему абсолютно не о чем волноваться.

Если же поисковик принял более серьезные меры к сайту, вы увидите снижение поискового трафика (это можно проверить в разделе «Поисковые запросы» в Webmaster Tools). Если вы считаете, что не нарушали правил для веб мастеров, вам следует отправить запрос о пересмотре сайта. После повторного рассмотрения, которое займет некоторое время, вы получите ответ.»

Тоже самое в двух словах: если вы получили такое предупреждение, но при этом нет снижения трафика — беспокоиться не о чем.

Мы продолжаем изучать влияние спамерских ссылок на SEOmoz и будем держать вас в курсе. Такие предупреждения получили сотни владельцев сайтов. Если вы оказались в их числе не паникуйте, а лучше проверьте позиции и трафик. Если раньше такое сообщение свидетельствовало о неминуемом бане, то теперь Гугл только грозит пальчиком «Эй парень, на твой сайт ведут несколько подозрительных ссылок».

Если вы получали такие письма, напишите в комментах чем все это закончилось.

Правда ли, что поиск Гугл игнорирует ключевые слова?


Гугл индексирует только заголовки и мета- описания, это правда?

Google не игнорирует ключевые слова на страницах в тегах, расположенных внутри тега , он их индексирует, это легко проверить, достаточно ввести ключевые слова в поисковую форму и google Вам выдаст страницы, содержащие ключевые слова из Вашего поискового запроса, но совсем иначе обстоит дело с метатегом keywords. Соглашусь с Slavomir по поводу поисковых алгоритмов, никто Вам этого не скажет, здесь вряд ли есть те, кто работал в google, мы же можем строить только свои предположения. Я считаю, что более-менее достоверную информацию можно получить из справочника метатегов google:

Особое внимание следует обратить на то, что содержится в последнем предложении, поскольку meta name keywords не входит в этот список, следовательно включать его «неразумно», опять же если ссылаться на этот источник от Google. Еще веской причиной не использовать данный метатег я бы назвал то, что он раскрывает семантическое ядро Вашего сайта, а сеошники профессионалы от конкурентов могут проанализировать Ваш код на страницах и увидеть по каким ключевым словам Вы продвигаете свои страницы. Еще Вы себе время сэкономите, если не будете его заполнять. Это что касается продвижения и использования метатега в поисковой системе Google.

Десять популярных SEO – мифов о продвижении в Google

При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.

Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.

1. Существование «Песочницы»

Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.

Webeffector в своей Wiki энциклопедии написал:

«Внешне помещение сайта в песочницу выглядит так. С ресурсом, кажется, всё в порядке, он находится в кэше Google, никаких претензий к нему не высказывается. Однако на странице выдачи ресурс не только не появляется при наборе в поисковой строке уникальных для этого сайта ключевых запросов, но даже не стоит в первой строчке выдачи при наборе в поисковой строке сетевого адреса сайта! Ресурса словно не существует для поисковой машины. Если это так, то будьте уверены – сайт в песочнице Google. Срок действия фильтра составляет от 6 месяцев до 1 года».

Что происходит на самом деле?

Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.

То же самое, но другими словами, написано в часто задаваемых вопросах Google:

«В первое время страницы нового сайта могут ранжироваться без учёта некоторых факторов [например, гео-зависимость контента — прим.авт.], которые для этого сайта ещё не выяснены. Могут быть не сразу определены полные и нечёткие дубликаты страниц, контент, скопированный с других сайтов, слабо наполненные страницы, некачественные тексты и другие недостатки сайта. Но в дальнейшем они скажутся, и сайт потеряет первоначальные позиции».

2. «Сопли» Google

Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.

Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.

С момента публикации прошло почти 8 лет, и все поменялось.

«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.

Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.

Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.

3. «Фильтры» Google

Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.

Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.

Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.

Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.

Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.

4. Влияние поведенческих факторов на ранжирование

Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.

Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев [1] .

После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.

Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:

«Мы не учитываем данные, предоставляемые через Google Analytics при ранжировании. «Накликивание» на ссылки в выдаче через псевдо-сервисы, подобные юзератору и иже с ним, — бесполезная трата ресурсов для веб-мастеров, которые могли бы с большей пользой употребить их другим образом». «Мэтт Катс — такие показатели, как CTR и показатель отказов не принимаются во внимание в алгоритме ранжирования».

Для понимания общего подхода приводим цитаты еще двух сотрудников Google.

John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования. [2]

Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes [3] .

5. До первой звезды нельзя

Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.

Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.

«…я бы рекомендовал Вам заняться удалением ведущих на сайт покупных ссылок, так как при их наличии показ расширенных описаний может быть отключён автоматически, и простого их отклонения может оказаться недостаточно. После очередной регулярной переоценки сайта он оказался несколько ниже того порога, над которым для страниц сайтов отображаются расширенные описания. Такие переоценки происходят постоянно и для всех сайтов. Учитывая, что показ расширенных описаний ни в коем случае не гарантируется, я бы просто продолжал работать над сайтом, как и раньше, предоставив Google производить свои оценки и принимать соответствующие решения.
Замечу, что по запросу site: расширенные описания могут и отображаться, так как для него действуют особые критерии».

6. Все страницы сайта должны быть в индексе

Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу. ». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.

Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.

Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.

Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.

Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?

Точное количество проиндексированных страниц можно узнать только в Google Search Console.

7. Важность ошибки 404 для SEO

В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.

Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-либо наказания для сайта, в корне неверно».

Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.

404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.

Одиннадцатого августа 2015 года в Twitter обсуждался вопрос, влияет ли 404 ошибка на то, как алгоритм Panda воздействует на рейтинг сайта.

На этот вопрос Gary Illyes дал отрицательный ответ.

8. Вернись, я всё прощу

Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.

Google умеет распознавать такие ссылки и, как Виктор Марьяныч из кинофильма «Наша Раша», – жестоко наказывает. Получив меры, принятые вручную, за покупные ссылки, сайт может потерять рейтинг и видимость в результатах поиска.

Добившись отмены мер, веб-мастера зачастую недоумевают и спрашивают, почему не возвращаются позиции сайта. Они забывают, что ранее достигнутые позиции сайт получил обманным путём.

Анализируя один из таких сайтов на Справочном форуме для веб-мастеров, Андрей Липатцев ответил:

«Вы полностью упустили из виду, что для «оптимизации» сайта кто-то занимался покупкой ссылок. Эффект этого допинга рано или поздно должен был прекратиться, что и произошло. На данный момент ваш сайт ранжируется так, как и должен, без учёта покупных ссылок».

9. Я всё отклонил

В продолжение описанного в пункте восемь заблуждения рассмотрим другой миф — «Сайт получил меры за покупные ссылки? Отклоняйте покупные (некачественные) ссылки и будет вам счастье».

Это не совсем так. Действительно, добавление таких ссылок в инструмент disavow tool, — это важная процедура «излечения» пострадавшего сайта. Но этого явно недостаточно.

Согласно официальной документации веб-мастер сначала должен удалить проблемные ссылки. Затем крайне желательно в запросе на повторную проверку разместить ссылку на доказательства осуществления этого процесса. Требование Google о физическом удалении проблемных ссылок отчасти обусловлено тем, что удаление ранее отклонённых ссылок из файла disavow восстанавливает статус этого ссылочного.

Неестественные ссылки, которые не смогли удалить, добавляются в disavow tool.

Добавление всех обратных ссылок в файл отклонения не считается решением проблемы, и вам не удастся пройти проверку.
В нём [в запросе на повторную проверку – прим.авт.] подробно описываются действия, предпринятые для устранения проблем.
В нём [в запросе на повторную проверку – прим.авт.] приведены все результаты ваших действий.

10. Отклонение ссылок и Search Console

Некоторые веб-мастера считают, что отправив в disavow tool ссылку из Google Search Console, она должна через время пропасть из раздела «ссылки на ваш сайт».

Это разные инструменты. На справочном форуме был задан вопрос – «… есть версия, что в панели веб-мастера отображаются только физически размещённые обратные ссылки и инструмент disavow никак не влияет на данный список?». На что Андрей Липатцев (Google) ответил: «Правильная версия».

Ссылки, добавленные в disavow tool, не удалены физически и потому логично, что исчезнуть из Search Consol они не могут.

Мы надеемся, что изложенная в статье информация будет полезна для веб-мастеров.

Топ-пост этого месяца:  Категории Хуков — Пользователи (users) — WordPress
Добавить комментарий
23.05.2012, 13:19 #9