Google о влиянии количества слешей в URL на SEO сайта


Содержание материала:

Влияют ли исходящие ссылки на позиции сайтов?

Внутри сообщества онлайн-маркетинга существует большое количество мифов, большинство из которых безосновательны и необоснованны. Однако то, что входящие ссылки могут иметь как положительный, так и отрицательный эффект на ранжирование сайта, является признанным и доказанным фактом. Что касается исходящих ссылок, их влияние на авторитетность сайта менее очевидно.

Существует убеждение, что любые исходящие ссылки ослабляют авторитетность сайта.

Журналисты Reboot Online провели качественные исследования, тесты и опросы, в ходе которых выяснилось, что в большинстве своём владельцы сайтов избегают ссылок на какие-либо внешние ресурсы.

Однако существует большое количество онлайн-ресурсов, которые разъясняют, почему необходимо использовать исходящие ссылки. Кроме очевидного удобства для пользователей, получающих более полную информацию, использование исходящих ссылок может быть фактором ранжирования для Google. Если внешние ссылки на авторитетные сайты использованы правильным образом, это позволит вашему блогу или веб-сайту занять более высокую позицию в поиске.

Несмотря на то, что многие владельцы сайтов ссылаются на внешние источники в течение многих лет, до этого момента не было доказательств о положительном эффекте внешних ссылок на ранжирование веб-сайта. Это было всего лишь интуитивной тактикой более продвинутых seoшников.

Итак, журналисты Reboot Online разработали и осуществили долгосрочный эксперимент, целью которого было найти доказательства положительного влияния исходящих ссылок на авторитет сайта.

Гипотеза:

Если исходящие ссылки находятся полностью под вашим контролем, логично предположить, что Google накажет вас, если компании покажется, что вы участвуете в схемах манипулирования ранжированием сайтов третьих лиц.

Это всё верно, но возникает другой вопрос: считают ли алгоритмы Google, что использование исходящих ссылок, соответствующих контексту статьи, на источники с хорошей репутацией является позитивным фактором ранжирования? Многие seo-специалисты считают, что да, исходящие ссылки оказывают позитивное влияние на авторитетность сайта.

Ход эксперимента:

Идея была достаточно проста, но её оказалось не так просто осуществить. Компания придумала фальшивое бьюти вещество под названием “Phylandocic”. Слово было выдумано специально, совпадения в Google не встречаются.

Для эксперимента было куплено 10 новых доменов. На каждом сайте разместили статью, в каждой из которых тестовое слово употребляется 6 раз. Структура сайтов и размер статей были стандартизированы, ключевые слова расположили примерно в одном и том же месте в статьях. На всех сайтах использовались аналогичные коды, но выглядели сайты чуть-чуть по-разному благодаря использованию css модификаций.

На 5 из 10 сайтов поместили высокоавторитетные ссылки на такие ресурсы, как Oxford University, Cambridge University и the Genome Research Institute. В первых двух ссылках а качестве анкор-текста был использован url, в третьей ссылке на Genome Research Institute тестовое слово “Phylandocic”.

В каждой статье упоминаются два высокоавторитетных релевантных источника. На половине веб-сайтов упоминания представлены в виде текста, на другой половине – в виде гиперссылок.

Домены были зарегистрированы в одно и то же время, чтобы исключить влияние возраста сайта на его ранжирование.

· aveoningon.co.uk – без исходящих ссылок

· bistuluded.co.uk – с исходящими ссылками

· chotoilame.co.uk – без исходящих ссылок

· dyeatimide.co.uk – с исходящими ссылками

· edikatstic.co.uk – без исходящих ссылок

· foppostler.co.uk – с исходящими ссылками

· gamorcesed.co.uk – без исходящих ссылок

· heabasumel.co.uk – с исходящими ссылками

· iramebleta.co.uk – без исходящих ссылок

· jundbaramn.co.uk – с исходящими ссылками

Доступ к доменам для поисковых роботов был закрыт до тех пор, пока весь материал и контент не был опубликован. У всех сайтов была не идентичная, но похожая структура. После того, как все сайты прошли индексацию, сотрудники Reboot Online осуществляли поиск по ключевым фразам “Phylandocic” и “Ancludixis”. Второе слово также является выдуманным, оно используется с целью сравнения влияния ключевой фразы с гиперссылкой и без неё.

Журналисты наблюдали за прогрессом в ранжировании сайтов в течение 5 месяцев.

Результаты:

Эксперимент завершился 21 февраля 2020 года. Эксперимент показал, что алгоритм Google учитывает исходящие ссылки на авторитетные источники и они имеют положительное влияние на ранжирование сайта.

Сотрудники Reboot Online подготовили графики и таблицы, чтобы сделать результаты эксперимента более наглядными.

Тепловые карты:

Первый график представляет собой тепловую карту, созданную на основе результатов ранжирования за один день тестирования. Зелёные квадратики обозначают, что сайт занял ожидаемую позицию в Google SERPS по ключевому слову. Красный или оттенки красного обозначают, что сайт занял позицию ниже ожидаемой. Чем дальше позиция сайта от прогнозируемой, тем ярче цвет.

Ключевое слово: [Phylandocic]

Ключевое слово: [Ancludixis]

Графики позиций:

Этот вид графиков фиксирует позицию сайта в ранжировании. Голубые линии обозначают сайты с исходящими ссылками, оранжевые – без них.

Ключевое слово: [Phylandocic]

Ключевое слово: [Ancludixis]

Результаты SERPS:

Ключевое слово: [Phylandocic]

Ключевое слово: [Ancludixis]

Полный обзор Rank Tracker:

Вывод:

Главным результатом этого исследования стало подтверждение того, что исходящие ссылки при правильном использовании оказывают положительное влияние на позиции сайта в поисковике Google.

Дмитрий Шахов, директор «Ремарка»:

Надо делать правильные выводы из того, что исторгается ртом представителей поисковых систем. Фактор – это по сути чекпойнт, явное указание влияния на ранжирование при его расчете: сделал что-то и получил результат в любом случае, пусть и с разным коэффициентом в зависимости от качества инструмента. Но есть и опосредованное влияние изменений на домене или документе — на другие факторы. Судя по ответу Мюллера – исходящие ссылки как раз и дают опосредованное влияние на ряд факторов, в свою очередь влияющих на лучшее ранжирование документа в Google. Сослались на справочный материал? Значит, не стали мусорить страницу ненужным контентом, удлинили полезный путь пользователя — возможно, еще и получили возврат на документ после прочтения справочника. Пользователь показал более высокий уровень удовлетворенности. Поиск разметил документ как более качественный и релевантный, повысив его ранжирование. Примерно такая логика. Но если аппроксимировать это на работу оптимизатора, то, конечно, это выглядит как факторальное влияние: поставили ссылку, получили прирост. Однако, не все исходящие ссылки одинаково полезны, и выше я пояснил примерную логику — почему. Так что Google прав, но это не значит, что исходящие ссылки ставить нет смысла.

Сергей Андреев, маркетолог сервиса Rookee:

С одной стороны, выводы интересные и как бы обвиняющие Google в неискренности по отношению к вебмастерам (в январе этого года поисковик сообщил, что исходящие ссылки не влияют на ранжирование).

Но с другой стороны строить такие выводы на столь небольшой и ограниченной выборке (10 сайтов в доменной зоне com.uk), на наш взгляд, неправильно. К тому же на всех сайтах был представлен разный текст, поэтому нельзя утверждать, что именно исходящие ссылки сыграли решающую роль в ранжировании сайтов. Исходящие ссылки – т.к. они были релевантными/кликабельными/полезными — могли лишь оказать некоторое положительное влияние.

Чтобы получить объективный результат, выборка должна быть больше и разнообразнее (включать разные поддомены, разные доменные зоны и т.д.).

А какой точки зрения придерживаетесь вы, уважаемые читатели?

УРЛ со слешем или без — почему правильно именно так?

Споры по этому вопросу — как правильно писать URL, со слешем на конце или без? — были и будут. Аргументация встречается разнообразная, и часто противоречива. А расплату за неверную запись универсального локатора ресурса (URL) воображают двух видов. Со стороны поисковиков — это якобы штрафные санкции за дубли страниц. С точки зрения производительности — якобы лишний редирект на страницу верной записи, автоматически генерируемый сервером.

Однако, разбирая технические спецификации стандартов Интернета, в частности документ » RFC 1738 — Uniform Resource Locators (URL)», приходится признать, что оба варианта записи адреса веб-ресурса формально правильные, и санкция за использование того или иного варианта — не более чем бзик поисковой системы или байки псевдо-SEO-шников.

С позиции лаконичности, более правильным представляется вариант без слеша на конце вне зависимости от того, адресует ли ваша ссылка «файл» на сервере или «папку», косвенное доказательство чему будет продемонстрировано ниже. Но и нет ни одного утверждения в документе, что иной вариант неверный или ссылается совсем на другой ресурс.

Загружать вас многостраничным переводом упомянутого RFC не стану, так как, во-первых, целью вопроса были слеши на конце URL, и во-вторых, публикация адресована простым пользователям движков, в том числе и Impera CMS, которым вся детализация не интересна, они ждут кратких разъяснений и доказательств по существу. Соответственно, я буду цитировать выдержки из сего документа в качестве доказательной базы и пояснять. Кому и это не интересно, может сразу смотреть вывод в конце статьи.

Общий синтаксис URL

Первым делом привлеку внимание к выдержке из параграфа 2. General URL Syntax (общий синтаксис URL). В каждом случае буду приводить фрагмент текста на языке оригинала и следом перевод на русский язык.

То есть сам URL — это чистая абстракция. Что он может показаться нам внешне похожим на имя файла или папки, вовсе не означает физическое указание на именно такой-то файл, а не какой-нибудь другой в файловом пространстве сервера. Ниже в документе об этом будет заявлено прямо.

Заметка Вообще в отношении http-ссылок в принципе неверно говорить, что например

  • http://domain.com/path/subpath/filename.txt — якобы указывает на файл
  • http://domain.com/path/subpath/ — якобы указывает на папку
  • http://domain.com/path — якобы неверно указывает на папку

Мы просто привыкли так говорить, потому что удобно ассоциировать ссылки с файлами на сайте. В действительности все эти ссылки указывают на некие ресурсы, никоим образом не обозначая тип ресурса. Что же скрывается за каждым ресурсом, то есть какой именно реальный файл или папка и какой тип контента будет отдан по такой ссылке, то уже определено конфигурацией сервера.

Важно уяснить, что в ссылках нет такого понятия как «файл», «папка», «подпапка», «текст», «картинка», «html», «скрипт», «таблица стилей» и так далее. Никакой слеш на конце или его отсутствие не значит ровным счётом ничего до тех пор, пока ссылка не пройдёт трансформацию внутри сервера, и уже он сам решит, куда же на самом деле указывает ссылка и какой контент какого типа скрывается за ней. Только это решение относится к внутренней архитектуре сервера.

Иерархические схемы

Далее выдержка из параграфа 2.3 Hierarchical schemes and relative links (иерархические схемы и относительные ссылки).

То есть утверждается, что в отдельных схемах адресов содержимое локатора ресурса не воспрещено подразумевать иерархическим, причём пока не оговаривалось, что иерархия эквивалентна какой-либо форме, скажем файловой.

Общий синтаксис сетевой схемы

Далее выдержка из параграфа 3.1. Common Internet Scheme Syntax (общий синтаксис сетевой схемы).

Заметка Это, кстати, ответ на вопрос, производный от рассматриваемого нами. Нередко и по такому вопросу спорят: как правильно давать ссылку на домен (хост) — без слеша в конце или со слешем?

Как правильно http://domain.com/ или http://domain.com ?

И так и так правильно. Просто первый слеш после имени хоста предназначен для отделения имени пути от имени хоста. Тот же параграф документа сообщает об этом так:

Ни словом не обязали вас ставить этот замыкающий символ или не ставить, когда url-path равен пустой строке (как сказали бы многие из нас, когда URL ссылается в корень сайта). Никто не имеет права применить к вам штрафные санкции «за два дубля главной страницы», ибо согласно спецификации, в обоих случаях вы ссылаете URL на один и тот же ресурс.

Продолжим ещё одной выдержкой из того же параграфа.

Это лишнее подтверждение, что у каждой схемы локатора своё понятие «иерархии» и способ её интерпретации.

Иерархия

Далее выдержка из параграфа 3.2.4 Hierarchy (иерархия).

Несмотря на то, что этот параграф относится к схеме ftp, тем не менее его утверждения распространимы и на другие схемы (http, gopher, prospero и так далее). Лишь в схеме file символ слеша логично обозначает то же, что и в именах файлов, например file://server_or_device/path/subpath/filename.txt .

Далее выдержка из параграфа 3.3. HTTP.

Заметка Здесь также утверждается, что можно указывать ссылку без оконечного слеша. В данном случае речь шла о ситуации, когда путь ссылки пустой — указывает на корень хоста.


Формальная запись

И наконец выдержка из параграфа 5. BNF for specific URL schemes (формальная запись для конкретных схем URL).

Здесь в квадратных скобках указаны опциональные части. Звёздочка перед скобкой обозначает 0 или более повторов такого фрагмента, как указан в скобках. Вертикальную черту следует понимать как ИЛИ.

Обратите внимание, как точно по правилам формируется элемент hpath — путь ссылки. Элементы hsegment пути — сегменты — разделяются слешем. Словно намекая на важную идею, что слеш делит путь на иерархические части и всегда находится внутри. В принципе не исключается, что последний элемент hsegment может являться пустой строкой (это следует из его определения), и тогда на конце URL невольно появляется закрывающий слеш.

Вывод

Деление пути на сегменты с помощью символа слеша подразумевает наличие непустых имён этих сегментов. Соответственно, ссылка со слешем на конце видится нелогичной (хотя и не воспрещена) в том смысле, что она вроде бы указывает на некий последний сегмент пути, но притом никак не называет этот сегмент. Точно так как нелогична (но тоже не воспрещена) ссылка http://domain.com/level1////levelX , не называющая промежуточные сегменты пути, если путь рассматривать не как набор параметров, а как иерархическую структуру.

Просторечным языком смысловое наполнение двух ссылок можно пояснить так:

  • http://domain.com/level1/level2 — адресует в дефолтную начальную точку второго уровня иерархии
  • http://domain.com/level1/level2/ — адресует в неопределённую точку внутри второго уровня иерархии, то есть как бы на сервер возлагают задачу, что «мы обращаемся ко второму уровню иерархии, а ты сам определи, какую точку считаешь в этом уровне дефолтной начальной».

Несмотря на оконечный слеш во второй ссылке, она всё же адресует во второй уровень иерархии, а не в третий, потому что ссылка явно не назвала имя третьего уровня.

Топ-пост этого месяца:  Как работают в CSS переменные область видимости, поддержка браузерами и другие свойства

Из всего сказанного выше следует, что аналогично тому, как ссылки

адресуют посетителя в корень сайта, так и например ссылки

адресуют посетителя во второй уровень иерархии ресурса. А то что некий сервер может интерпретировать слеш на конце по-своему и начать внутренне редиректить на дефолтную начальную точку уровня — скажем на файл index.html , это уже частный случай конкретной конфигурации. Точно так как и в реализации системы человеко-понятных URL все записи редиректов с помощью серверного модуля mod_rewrite определяют своё (присущее конкретному движку) понятие иерархического строения URL, в котором элементы пути могут приравниваться к параметрам запроса и вовсе не иметь общего с файловой структурой сайта (классический пример: http://domain.com/ru/path , элемент ru — это параметр текущего языка, а не папка на сайте).

Особо подчеркну, что это внутренние знания сервера, обусловленные его конфигурацией, а также установленным на сайте движком. Внешний сервис, скажем тот же поисковик, домыслов делать не может и понятия не имеет, отличаются ли и чем ссылки со слешем и без, если только сервер сайта специально не настроили так, чтобы по таким ссылкам выдавать разный контент.

К сведению

На уровне реализации вопрос слешей на концах не имеет принципиального значения, чему множество подтверждений среди именитых порталов. На одних все ссылки завершают слешем, на других — без слеша. Главное чтобы контент по ссылкам не оказывался разным, и ещё для Яндекса нужно прописать 301-й редирект с тех ссылок, которыми вы не пользуетесь (скажем оканчивающихся слешем), на те, которыми пользуетесь. Дело в том, что по неподтверждённым утверждениям службы поддержки Яндекса, этот поисковик якобы может ошибаться и не «склеивать» (запоминать в своих знаниях) или с некоторым запозданием склеивать слеш-без-слешевые адреса в один.

Вот пример реализации такого редиректа с помощью корневого файла .htaccess :

Гуглу (опять же по сведениям, не подтверждённым экспериментом) эти редиректы не важны, так как он будто бы умеет склеивать такие адреса правильно и без редиректов.

Помните Есть немало людей, считающих себя SEO-специалистами. Но не каждый из них таким является. Более того, темой SEO часто спекулируют без должных знаний и оснований, просто в расчёте на то, что и вы неосведомлены в этой области, поэтому легко поверите в любую «лапшу». Когда вам говорят, что какая-то ваша страница «вылетела из индекса», воспользуйтесь очень хорошей рекомендацией Яндекса: Узнавать об ошибках индексирования, если таковые возникают, можно в сервисе Яндекс.Вебмастер. В этом сервисе всегда можно увидеть список ваших страниц, находящихся в поиске и список страниц, по какой-то причине исключённых из поиска. Похожий сервис есть и у Гугла. Доверяйте этим знаниям, а не мнению псевдо-специалистов, которые где-то что-то краем уха слышали, и на том основании рекомендуют вам делать так, как им кажется единственно правильным.

Что ещё почитать по теме SEO

Вот Очень интересная публикация Малоизвестные факты SEO, вышедшая в апреле 2020 года. Там представлено большое исследование со множеством скриншотов, которое начиналось с целью проверить справедливость нескольких популярных суждений в области поискового продвижения и на понятных примерах донести результаты до обычного владельца сайта. То же исследование попутно демонстрирует молодому читателю ряд очевидных, обыденных, и скорее даже неприметных, но всё же удивительных особенностей органической выдачи в поисках Google и Yandex.

Вот Хотя следующая ссылка почти не касается SEO, всё же станет привлекательной для seo-мастеров, находящихся сейчас в поиске дополнительных заказов. Под ссылкой размещено коммерческое предложение, ребята нашли любопытный способ использования сайта. Частному бизнесу предлагают создание рекламного щита онлайн на основе какой-то специальной темы, под управлением которой сайт, а точнее его первый экран выглядит словно бы баннерная растяжка на билбордах наружной рекламы. На смартфоне повернул экран, растяжка стала вертикальной и занимает всю площадь экрана, повернул назад, стала горизонтальной и снова на весь экран. А под первым экраном есть текстовый придаток, куда пользователи обычно не скролят, но поисковик хорошо видит этот текст. Так вот самые шустрые буратины регионального бизнеса покупают себе эти недорогие онлайн билборды в качестве выгодной альтернативы контекстной рекламе и контекстно-медийной сети Яндекса и Гугла. А чтобы по-максимуму тусоваться в местном поисковом индексе, на продвижение своего щита готовы стегнуть денег сразу на кучу seo-текстов, что пахнет некислой суммой. Судя по слухам, заказы на 30 килорублей проскакивают, и так как ребята аутсорсят их партнёрам сеошникам, тут можно навести мосты партнёрства и получать хороший приработок.

SEO-фрагменты (SEO Snippets) Google: полезно ли для SEO удаление .html из URL сайта?

07.05.2020 Время прочтения: 1 минута

С 21 декабря 2020 года Google публикует SEO-фрагменты (SEO Snippets) – короткие обучающие видео. Ниже перевод очередного SEO-фрагмента.

Сегодня отвечаем на вопрос Джеймса из Объединённого Королевства: он спрашивает, поможет ли удаление из адресов страниц HTML стать сайту более значимым для поисковых систем типа Google? Имеет ли значение, каким способом завершается URL?

Отвечаем: нет, не поможет и не имеет. Google «смотрит» URL, чтобы идентифицировать фрагменты контента, независимо от того, что стоит в конце URL – .html, .php, .asp или просто какие-то слова. Все эти URL могут одинаково показываться в поисковой выдаче.

Но, если вам нужно поменять URL (например, если сайт переезжает на новую систему управления контентом, которая совсем не позволяет использовать .html), помните о том, что это изменение изменит структуру сайта и придётся настраивать редирект со старых URL на новые.

Изменение такого рода может занять достаточно много времени, поэтому стоит выделить специально для этого период, когда вы не делаете упор на результаты сайта в поиске. И, поскольку это может затянуться, мы не рекомендуем «переезжать» из прихоти. Когда приступаете к изменению URL, выбирайте те, в которых будете уверены достаточно, чтобы оставить их на долгое время.

Как покупать ссылки для продвижения в Google

Отбор доноров и покупка ссылок для продвижения в Google сегодня происходит намного легче, чем это было лет 10 назад. Дело в том, что Google постоянно патентует свои алгоритмы, а по законодательству США, получая патент, необходимо описать их работу. Этот факт и не столь уж редкие оговорки сотрудников Google, даёт оптимизаторам возможность ориентироваться в принципах ранжирования документов в поиске.

Где ссылки работают лучше

Например, в патентах Google’s Reasonable Surfer, Page Segmentation и Boilerplate описывается методика оценки качества ссылки в зависимости от окружающего контента. Ссылка, которая находится в сайдбаре, подвале, шапке оценивается хуже, чем ссылка, стоящая в основном контенте документа. При этом важно, чтобы контент на странице был уникальным. Значение имеет и расположение ссылки в тексте: чем выше она стоит, тем больший вес передаёт. В ходе SEO-экспериментов выяснилось также, что ссылки, созданные с помощью JavaScript или CSS (например из выпадающих меню) передают меньший вес, чем обычные ссылки. Тем не менее, Google индексирует и учитывает их.

Здесь же нужно сказать, что больший вес передаст та ссылка, которая в контенте находится выше. Это стало известно от Мэтта Каттса, который однажды сообщил оптимизаторам, что ссылка будет работать лучше, если она размещена первой на странице. А в патенте Google’s Reasonable Surfer отдельно указано, что больший вес передаётся по ссылке, которая расположена на видном месте. Поэтому ссылка с первого экрана будет работать лучше, чем ссылка со второго и т.д. Имеет также значение, есть ли по ссылке переходы.

Более эффективны ссылки с уникальных доменов. Каждая следующая ссылка на одном и том же сайте снижает эффективность уже поставленных. При прочих равных, лучше иметь 100 ссылок со 100 сайтов, чем 1000 с одного сайта. Однако почти всегда каждая из десяти ссылок с популярного сайта будет полезнее одной с никому неизвестного.

При простановке нескольких ссылок на одной странице, нужно учитывать ещё один момент. Ссылочный вес (или PageRank) будет передаваться всеми ссылками. Но анкор Google учтёт только один — первый в документе. Причём, если первая ссылка в документе будет расположена, например, в навигационном меню, то учтётся именно её анкор, а эффекта от ссылки не из тела документа, как мы уже знаем, меньше.

Каких доноров выбирать

Вопреки утверждениям некоторых оптимизаторов, ссылка из тематического контента будет работать лучше ссылки с любой другой страницы. Кроме того, имеют значение ссылочные связи донора. В патенте PageRank недавно появился целый раздел, в котором Google описывает свою концепцию «доверия» к разным ресурсам в сети. Из него следует, что чем ближе донор связан с ресурсами, определёнными Google как трастовые, тем больше веса передают ссылки с него. Кроме ссылочных связей, имеют значение и упоминания, онлайн-обзоры, отзывы. Если после анализа упоминаний алгоритмы Google помечают сайт как вводящий пользователей в заблуждение, то ссылки с него будут работать хуже, а возможно и вообще станут бесполезными. Особенно актуально это для доноров из сектора здоровья, финансов, юридической помощи, безопасности и т.д. — так называемых сайтов YMYL.

Большое значение имеет свежесть страницы. Причём, свежесть Google определяет не по давности размещения, а по давности обновления. Обновление документа Google расценивает как его размещение заново и относится к нему как к свежему. Кроме того, страница воспринимается алгоритмом как старая, если на неё нет свежих ссылок. Ссылки со свежих страниц работают лучше, чем со старых.

О приросте новых ссылок на страницу идёт речь в патенте «Information Retrieval Based on Historical Data»: если на страницу идёт приток свежих ссылок, это характеризует её как важную.

Не ленитесь изучать исходящие с потенциального донора ссылки. Мэтт Каттс утверждал, что доверие Google к сайтам зависит от того, на какие сайты он ссылается. Если на сайте имеются ссылки на авторитетные ресурсы, то следует присмотреться к такому донору получше. Определить, насколько ресурс является качественным с точки зрения алгоритмов Google, можно по выдаче: сайты, выше ранжирующиеся в своей тематике, однозначно оцениваются алгоритмами высоко. SEO-эксперименты подтверждают, что наличие на странице ссылок на качественные сайты улучшают её ранжирование.

Каких доноров отбрасывать

При построении кампаний по линкбилдингу надо понимать, что большинство ссылок в интернете Google игнорирует. Алгоритмы принимают во внимание, прежде всего, те ссылки, которые появились независимо от желания акцептора.

Поэтому при бездумной покупке ссылок на непроверенных донорах, ваш сайт может попасть под санкции. Следует выбирать такие размещения, где ваша ссылка будет единственной SEO-ссылкой на странице (одна ссылка — идеальный вариант, но не более двух-трех исходящих) и следует избегать сильно заспамленных сайтов.

Перед размещением нужно также проверить, нет ли запрета на индексацию ссылок или документов полностью на уровне страницы в метатегах. Может быть, например ситуация, когда заголовок документа отдаёт директивы noindex, follow — в этом случае существует запрет на индексацию документа, а значит и по ссылкам с него индексирующий бот не пойдёт. Необходимо проверять, нет ли запрета индексации в файле robots.txt. Случается, что вебмастера без умысла, по ошибке или незнанию включают туда запрещающие директивы.

Впрочем, иногда Google индексирует такие документы несмотря на запрет. Например, если находит ссылки на него.

Малоизвестные факты о работе ссылок

В линкбилдинге есть несколько интересных моментов, известных даже не всем профессионалам. Например, мало кто знает о так называемом «ссылочном эхе» — интересном эффекте, при котором ссылка не только после снятия, но даже после переиндексации документа, ещё многие месяцы продолжает влиять на ранжирование. Это работает не со всеми, а только с некоторыми ссылками. Возможно, Google присваивает некое значение передаваемого веса, которое является постоянным и в дальнейшем не зависит от наличия этой ссылки в сети. А может быть после роста позиций Google изменяет принципы ранжирования некоторых документов. В любом случае, есть некий «потусторонний» ссылочный эффект, который подтверждается практикой сотен оптимизаторов.

Если вы отмените влияние ссылки, воспользовавшись инструментом дезавуации Google, то такая ссылка почти наверняка будет отключена, однако в некоторых случаях она продолжает учитываться.

Избегайте как снимать, так и ставить одновременно большое количество ссылок: почти всегда после этого происходит резкое падение позиций, особенно, если продвигаемый сайт ещё не обладает высоким уровнем доверия от Google.

Ссылки с атрибутом rel=’nofollow’ нередко передают ссылочный вес. В документах Google о таких ссылках сказано «обычно мы по ним не переходим». Использование слова «обычно» указывает на возможность переходов в некоторых ситуациях. Кроме того, передавать вес по ссылке можно, и не переходя по ней. Так или иначе, в SEO-экспериментах зафиксировано много случаев работы ссылок с nofollow.

Ещё одна новость для вебмастеров и оптимизаторов: если ссылка имеется в кэше Google, то она может передавать вес, даже будучи сгенерированной скриптом, например, Javascript. Сравнительно недавно было принято прятать ссылки от Google с помощью Javascript. В этом случае они появлялись на странице, а в коде были не видны. Однако сейчас Google научился добираться до большинства таких ссылок и теперь многие из них вносят свой вклад в ранжирование.

Google умеет распознавать даже ссылки, которые не оформлены соответствующими тегами — так называемые бессылочные упоминания документов. Обнаружив такие упоминания, Google присваивает им вес. Page Rank передаётся также при упоминании бренда или даже какого-то эксклюзивного товара/услуги чего-то, что можно найти только на вашем сайте. За это отвечает механизм ассоциаций, включенный в алгоритм ранжирования Google.

Еще несколько нюансов

Есть некоторые очевидные моменты, которые часто оспариваются. Во-первых, более эффективны ссылки с документов, которые имеют больше ссылающихся на него сайтов. Эта концепция легла в основу патента Google Page Rank, который является основополагающим в организации поиска Google. Он говорит о том, что чем больше ссылаются на документ, тем больше он способен отдавать ссылочного веса.

Некоторые оптимизаторы утверждают, что продвигать сайт можно с помощью исключительно внутренних ссылок, накачивая нужные документы ссылочным с других страниц того же сайта. Эти «свидетели внутренних ссылок» в чём-то правы: таким образом, действительно, можно продвинуть низко- и среднечастотные запросы с низкой конкуренцией. Но если речь идёт о выводе в топ по высококонкурентным запросам, то одними внутренними ссылками документ не продвинешь. Тем не менее, внутренняя перелинковка хорошо работает на информационных запросах. В случае с коммерческими запросами внутренние ссылки не могут тягаться с внешними.

Влияние анкоров на ранжирование обычно не оспаривается, но утверждается, что лучше иметь множество безанкорных ссылок. Это и так и не так одновременно. Безанкорные ссылки защитят вас от ссылочных фильтров и накачают страницу статвесом без передачи ей важного для ранжирования параметра — запроса, по которому нужно быть в топе. Но и веса ссылка с анкором передаст больше: в патенте Google’s Reasonable Surfer сказано, что релевантный анкор передаст больше веса по ссылке, чем нерелевантный или неопределённый. Однако есть уточнение: релевантность ссылки может определяться не только анкором, но и околоссылочным текстом.

Как видите, линкбилдинг для продвижения в Google имеет чёткие и понятные правила: внимание к донору, внимание к анкору, внимание к месту размещения. Следуйте им, и пусть ваши сайты будут в ТОПе.

И не надо забывать, что поисковое продвижение — это не только покупка ссылок, но целый комплекс работ по оптимизации вашего сайта, который требует грамотного подхода.

Материал опубликован пользователем.
Нажмите кнопку «Написать», чтобы поделиться мнением или рассказать о своём проекте.

Влияние ссылок в 2020 году в Яндексе и Google на продвижение сайтов

Начиная с 2013 года в поисковых системах начались изменения в расчетах траста сайтов. В качестве примера интеграции новых методов расчета появился Яндекс Икс (вместо ТИЦ), а Google перестал обновлять PageRank.

Топ-пост этого месяца:  Laravel — лидер среди PHP фреймворков, одобренный разработчиками

Что общего было у этих алгоритмов? Они использовали ссылочные графы для оценки качества донора и ранжирования сайтов. При этом в Яндексе использовался более совершенный алгоритм учитывающий только тематические ссылки (на то он и тематический индекс цитирования). Тиц и PageRank напрямую влияли на позиции сайтов по поисковым запросам.

Ситуация в Яндексе

Через время алгоритмы начали совершенствоваться, в Яндексе появился Матрикснет и уже стал влиять не только ссылочный вес с ссылок, но и стали учитываться другие факторы (анкор, спам на сайте, релевантность статьи анкору и т.д.). К чему это привело? К тому что переданный ссылочный вес стал резаться при условии что есть какие то негативные факторы влияющие на оценку (к примеру тот же платной ссылки, а не естественной).

В Яндексе с 2013 года после введения влияния поведенческих факторов на выдачу кроме ссылочных факторов начали использоваться и другие методы оценки (например те же коммерческие факторы). Как следствие влияние ссылочного стало все хуже и хуже, та как основная доля траста стала смещаться в сторону коммерческих факторов (для коммерческих запросов) и поведенческих (для информационных).

Ситуация в Google

По сравнению с Яндексом Гугл более архаичен. Поведенческие факторы тут работают, но не являются главными.

Но последнее время Гугл начал плавно использовать метод оценки качества сайта кроме ссылок. Как пример – это использование метода оценки сайтов асессорами E-A-T (экспертность, авторитетность и надёжность сайта).
С 2015 года также работает Knowledge-Based Trust (КВТ) – алгоритм позволяющий проверять факты в текстах на истинность. Основа алгоритма – база в 2.8 миллиарда установленных факторов (основано на данных Википедии и других сайтов).
Даже сами ссылочные факторы совершенствуются. Например не так давно Google начал учитывать вложенность ссылок с релевантных страниц сайтов с высоким трастом по Knowledge-Based Trust(КВТ).

Как это работает на практике? В тематике формируются сайты с высоким КВТ(эдакие лидеры ниши). Далее для оценки качества других сайтов учитываются вложенность ссылок на другие сайты. Чем больше ваш сайт имеет ссылок с сайтов с высоким КВТ тем лучше в выдаче отображается ваш сайт. При этом учитываются не только прямые ссылки, но и ссылки через другие доноры на ваш сайт.

Как использовать данные на практике?

Для Гугла – нужно больше ссылок, желательно с сайтов которые являются лидерами в вашей тематике или пересекаются с вами по семантическому ядру. Так как ссылочные факторы очень сильны, то многие параметры определяющие ссылочный профиль хорошо работают. В качестве примера можно взять параметры Ахрефса DR и UR. Демо версию на 2 запроса можно проверить тут.

В то же время доля влияния ссылочного в Яндексе меньше 30%. Оценка качества донора только по ссылочному профилю устарела еще в 2013 году. Новых метрик так и не было введено и причина этому – полная деградация современного SEO продвижения. Многие компании не понимая как закупать ссылки под Яндекс просто отказались от закупки вообще. Закупка ссылок в биржах упала в разы и как следствие конкуренция снизилась и рынок просел.

Тем не менее существуют методы оценки качества донора с помощью оценки видимости в Яндексе. Сам метод не является панацеей, так как он не может определить причин падения трафика за счет устаревания контента.

Более подробно об этом я писал на блоге GGL. Кто не читал – можете ознакомиться:
Подробнее

К сожалению биржи ссылок не особо заинтересованы в методе оценки видимости на сайтах. А причина банальна – 95% сайтов в биржах не имеют позиций, а более 70 % просто под фильтрами и не годятся для закупки ссылок.
Я для себя использую свою программу для упрощения подбора доноров (с фильтром по Liveinternet,видимости Google и Яндекса). Ссылка на программу.

Десять популярных SEO – мифов о продвижении в Google

При продвижении сайтов в Google в среде веб-мастеров возникли и утвердились несколько SEO – мифов и заблуждений.

Причины — отсутствие информации или подтверждений от первоисточника (Google); невнимательное прочтение или неправильное понимание справочной информации.

1. Существование «Песочницы»

Бытует мнение, что Google применяет к молодым сайтам некий алгоритм, влияющий на их ранжирование.


Webeffector в своей Wiki энциклопедии написал:

«Внешне помещение сайта в песочницу выглядит так. С ресурсом, кажется, всё в порядке, он находится в кэше Google, никаких претензий к нему не высказывается. Однако на странице выдачи ресурс не только не появляется при наборе в поисковой строке уникальных для этого сайта ключевых запросов, но даже не стоит в первой строчке выдачи при наборе в поисковой строке сетевого адреса сайта! Ресурса словно не существует для поисковой машины. Если это так, то будьте уверены – сайт в песочнице Google. Срок действия фильтра составляет от 6 месяцев до 1 года».

Что происходит на самом деле?

Нет «песочницы», — рассказывает сотрудник Google Андрей Липатцев, — пару-тройку месяцев мы собираем о сайте все данные, и в этот срок он ранжируется по тем, что есть, а потом может начать ранжироваться как выше, так и ниже.

То же самое, но другими словами, написано в часто задаваемых вопросах Google:

«В первое время страницы нового сайта могут ранжироваться без учёта некоторых факторов [например, гео-зависимость контента — прим.авт.], которые для этого сайта ещё не выяснены. Могут быть не сразу определены полные и нечёткие дубликаты страниц, контент, скопированный с других сайтов, слабо наполненные страницы, некачественные тексты и другие недостатки сайта. Но в дальнейшем они скажутся, и сайт потеряет первоначальные позиции».

2. «Сопли» Google

Наверно, каждый веб-мастер слышал о таком понятии, как supplemental index (дополнительный индекс) или его сленговом названии «сопли». Принято считать, что получить список страниц сайта, которые находятся в основном индексе, можно используя оператор site:yoursite.ua/&. Соответственно, список страниц из дополнительного индекса якобы можно получить используя комбинацию site:yoursite.ua -site:yoursite.ua/&.

Основания считать, что дополнительный индекс Google существовал действительно были. О нём была публикация в Google Webmaster Central Blog от 31 июля 2007 года.

С момента публикации прошло почти 8 лет, и все поменялось.

«Если ввести в адресную строку site:pdapps.ru/ — то весь индекс страниц, а если ввести site:pdapps.ru/& — это основной индекс, который по идее должен быть в поиске. Поправьте, если я ошибаюсь» — спросили Андрея Липатцева на справочном форуме для веб-мастеров.

Действительно, ошибаетесь, — ответил он. — Никакой полезной информации добавление & к запросу Вам не даёт.

Специалист Google, к которому мы обратились за разъяснением ситуации, сообщил, что существование supplemental index – это устаревшая информация.

3. «Фильтры» Google

Фильтр – сленговый термин, используемый веб-мастерами, который подразумевает обработку данных сайта и влияние на ражирование и индексирование.

Google не использует никакие фильтры. Использование подобного сленга приводит к искажению смысла сообщений, поскольку до конца неясно, что именно тот или иной веб-мастер в данный момент времени понимает под словом фильтр.

Если вы обсуждаете или публикуете какую-то информацию, связанную с Google, желательно использовать точную терминологию.

Поисковая система Google представляет в упрощённом виде некое подобие часового механизма, где все «детали» являются постоянно взаимодействующими друг с другом алгоритмами. Поэтому, если вы столкнулись с понижением рейтинга сайта в SERP, исключением из индекса и так далее, лучше использовать термин «алгоритм [название]» или меры, принятые вручную.

Нигде в официальных справках или публикациях Google для веб-мастеров, в том числе в интервью, слово фильтр не используется.

4. Влияние поведенческих факторов на ранжирование

Ещё один SEO – миф состоит в том, что Google учитывает влияние поведенческих факторов для целей ранжирования. На эту тему веб-мастера массово пишут статьи и ведут обсуждения на форумах.

Google не использует поведенческие факторы и социальные сигналы в ранжировании сайтов. Об этом на конференции CyberMarketing-2014 рассказал специалист службы качества поиска Google Андрей Липатцев [1] .

После этого заявления почти на всех конференциях его обязательно спрашивают об этом. Ну, не верят веб-мастера в якобы очевидное, и всё тут.

Позже Андрей Липатцев подтвердил ранее высказанную точку зрения:

«Мы не учитываем данные, предоставляемые через Google Analytics при ранжировании. «Накликивание» на ссылки в выдаче через псевдо-сервисы, подобные юзератору и иже с ним, — бесполезная трата ресурсов для веб-мастеров, которые могли бы с большей пользой употребить их другим образом». «Мэтт Катс — такие показатели, как CTR и показатель отказов не принимаются во внимание в алгоритме ранжирования».

Для понимания общего подхода приводим цитаты еще двух сотрудников Google.

John Mueller сказал: «я не предполагаю, что [поведение пользователей] это то, что #Google будет использовать как фактор ранжирования. [2]

Использование кликов напрямую в ранжировании не будет иметь смысла из-за шума,— сказал Gary Illyes [3] .

5. До первой звезды нельзя

Помните этот слоган в одной из реклам известного бренда? Среди веб-мастеров бытует мнение, что достаточно добавить в код страниц соответствующую валидную разметку, и в результатах поисковой выдачи появятся расширенные сниппеты.

Суть в том, что сама по себе разметка даже трижды валидная не является гарантией появления расширенного сниппета. Рекомендуем очень внимательно изучить и обдумать ответ Андрея Липатцева.

«…я бы рекомендовал Вам заняться удалением ведущих на сайт покупных ссылок, так как при их наличии показ расширенных описаний может быть отключён автоматически, и простого их отклонения может оказаться недостаточно. После очередной регулярной переоценки сайта он оказался несколько ниже того порога, над которым для страниц сайтов отображаются расширенные описания. Такие переоценки происходят постоянно и для всех сайтов. Учитывая, что показ расширенных описаний ни в коем случае не гарантируется, я бы просто продолжал работать над сайтом, как и раньше, предоставив Google производить свои оценки и принимать соответствующие решения.
Замечу, что по запросу site: расширенные описания могут и отображаться, так как для него действуют особые критерии».

6. Все страницы сайта должны быть в индексе

Можно открыть любой SEO-форум и найти там тему «Почему Google не индексирует страницу. ». Миф основан на том, что якобы абсолютно все страницы сайта должны быть в индексе.

Индекс не резиновый, — сказал на одной из конференций инженер Google Ринат Сафин.

Google-бот периодически сканирует сайт и передает соответствующую информацию алгоритмам, которые отвечают за оценку качества сайта, ранжирование и индексирование страниц.

Допустим, на сайте есть две страницы с примерно одинаковым содержанием, но одна из них содержит более качественный контент, чем вторая. Ресурсы Google тоже не безграничны, потому в нашем примере в индекс будет добавлена только одна страница — с более качественным и информативным контентом.

Отдельные страницы сайта могут быть исключены из индекса. Дополнительно читайте нашу статью на Хабрахабр — У вашего сайта проблемы с Google?

Точное количество проиндексированных страниц можно узнать только в Google Search Console.

7. Важность ошибки 404 для SEO

В среде веб-мастеров распространено заблуждение, что наличие на сайте страниц, отдающих 404 ошибку (Error 404 или Not Found стандартный код ответа HTTP), может негативно сказаться на индексировании или ранжировании сайта. Многие веб-мастера считают, что алгоритм Panda учитывает эту информацию при оценке качества сайта.

Webmaster Trends Analyst Google Gary Illyes предельно чётко пояснил позицию Google: «Мнение, что ошибки 404 влекут за собой какие-либо наказания для сайта, в корне неверно».

Веб изменчив, старые ссылки могут вести в никуда. Гуглоботу такие ссылки безразличны [читай, не влияют ни на какие показатели — прим.авт.]. Если вдруг вы найдете битые ссылки, то просто исправьте их, чтобы посетители могли нормально пользоваться сайтом, — говорил на одной из видеоконференций John Mueller. — Я бы не рассматривал эту проблему, как что-то важное с точки зрения SEO. Это просто часть работы по поддержке сайта — следить, чтобы ссылки были в актуальном состоянии.

404 ошибка на неправильном URL не навредит индексации вашего сайта или его ранжированию в любом случае. Даже если таких ошибок 100 или 10 миллионов, они не повредят рейтингу вашего сайта, — пишет John Mueller на своей странице в Google плюс.

Одиннадцатого августа 2015 года в Twitter обсуждался вопрос, влияет ли 404 ошибка на то, как алгоритм Panda воздействует на рейтинг сайта.

На этот вопрос Gary Illyes дал отрицательный ответ.

8. Вернись, я всё прощу

Не секрет, что большинство сайтов использовали или используют для продвижения покупные (неестественные) ссылки.

Google умеет распознавать такие ссылки и, как Виктор Марьяныч из кинофильма «Наша Раша», – жестоко наказывает. Получив меры, принятые вручную, за покупные ссылки, сайт может потерять рейтинг и видимость в результатах поиска.

Добившись отмены мер, веб-мастера зачастую недоумевают и спрашивают, почему не возвращаются позиции сайта. Они забывают, что ранее достигнутые позиции сайт получил обманным путём.

Анализируя один из таких сайтов на Справочном форуме для веб-мастеров, Андрей Липатцев ответил:

«Вы полностью упустили из виду, что для «оптимизации» сайта кто-то занимался покупкой ссылок. Эффект этого допинга рано или поздно должен был прекратиться, что и произошло. На данный момент ваш сайт ранжируется так, как и должен, без учёта покупных ссылок».

9. Я всё отклонил

В продолжение описанного в пункте восемь заблуждения рассмотрим другой миф — «Сайт получил меры за покупные ссылки? Отклоняйте покупные (некачественные) ссылки и будет вам счастье».

Это не совсем так. Действительно, добавление таких ссылок в инструмент disavow tool, — это важная процедура «излечения» пострадавшего сайта. Но этого явно недостаточно.

Согласно официальной документации веб-мастер сначала должен удалить проблемные ссылки. Затем крайне желательно в запросе на повторную проверку разместить ссылку на доказательства осуществления этого процесса. Требование Google о физическом удалении проблемных ссылок отчасти обусловлено тем, что удаление ранее отклонённых ссылок из файла disavow восстанавливает статус этого ссылочного.

Неестественные ссылки, которые не смогли удалить, добавляются в disavow tool.

Добавление всех обратных ссылок в файл отклонения не считается решением проблемы, и вам не удастся пройти проверку.
В нём [в запросе на повторную проверку – прим.авт.] подробно описываются действия, предпринятые для устранения проблем.
В нём [в запросе на повторную проверку – прим.авт.] приведены все результаты ваших действий.

10. Отклонение ссылок и Search Console

Некоторые веб-мастера считают, что отправив в disavow tool ссылку из Google Search Console, она должна через время пропасть из раздела «ссылки на ваш сайт».

Это разные инструменты. На справочном форуме был задан вопрос – «… есть версия, что в панели веб-мастера отображаются только физически размещённые обратные ссылки и инструмент disavow никак не влияет на данный список?». На что Андрей Липатцев (Google) ответил: «Правильная версия».

Ссылки, добавленные в disavow tool, не удалены физически и потому логично, что исчезнуть из Search Consol они не могут.

Мы надеемся, что изложенная в статье информация будет полезна для веб-мастеров.

Что выбрать: ставить или не ставить слэш на конце URL?

elfchat.ru/ru/signup
elfchat.ru/ru/signup/
Знаю что вопрос простой: нужно просто выбрать, но я почему то не могу. Мечусь из стороны в сторону. Прошу помощи!

  • Вопрос задан более трёх лет назад
  • 21619 просмотров

Тоесть используйте слеш в конце ВСЕГДА
(кроме адресов файлов: www.mydomain.com/index.htm)

Этим Вы упрощаете работу веб серверу!
(экономите ресурсы планеты, энергию, время. )

Так как если слеш не указать, сервер должен будет
проверить является ли это адресом веб страницы,
тоесть если по указанному пути такой файл,
а если нет, значит это директория.
А вот когда вы указали в конце слеш,
веб сервер СРАЗУ поймет что вы имеете
ввиду именно директорию!

Топ-пост этого месяца:  Меню группы в ВК как сделать и настроить, как убрать

mentalic, вы как-то слишком эмоционально пишете.

Редирект можно отключить в конфигурации сервера. Да и если адрес без слеша существует, адрес со слешем уже не будет проверяться.

Яндекс, если видит урл без слеша, иногда проверяет такой же урл, но со слешем. В этом случае важно делать 301-й редирект на страницу без слеша (в друпале для этого есть специальный модуль, кажется, GlobalRedirect называется).

Ошибкой будет выдавать одинаковую страницу со слешем и без, т.к. это дубли страниц и могут быть санкции поисковых систем.

Ну это все с точки зрения СЕО. А с практической точки зрения — абсолютно все равно как делать, только считается, что со слешем по смыслу должен быть каталог чего-то, а без — страница.

В www.ietf.org/rfc/rfc1738.txt этот вопрос не регламентирован.

; HTTP
httpurl = «http://» hostport [ «/» hpath [ «?» search ]]
hpath = hsegment *[ «/» hsegment ]
hsegment = *[ uchar | «;» | «:» | «@» | «&» | «=» ]
search = *[ uchar | «;» | «:» | «@» | «&» | «=» ]

Хотите ставьте ‘/’ в конце, а хотите не ставьте — главное, чтобы ваш сервер этот URL понимал.

Проблемы подстерегают с другой стороны — обычно браузер получает HTML документы, в которых могут быть картинки, с относительными URI, для которых браузер вычисляет абсолютный URL и получается веселуха: /path/to/page.html/image.gif и т.п.


Так что совет — для папок в конце пишите ‘/’, а для файлов не пишите. И тогда браузер правильно вычислит адреса для подключаемых ресурсов.

Ставить. Только так можно обеспечить единообразные URL-адреса вне зависимости от того, как именно они реализуются: серверным движком или просто index-файлом в физической папке.

И желательно делать редирект с адреса без слэша на адрес на канонический адрес со слэшом.

К моему комментарию это отношения не имеет, как, собственно, и ваш первый ответ на него.

В простейшем случае ЧПУ-адрес со слэшом реализуется банальной статикой: создаётся папка, в ней index-файл, всё. Этот способ доступен любому — вне зависимости от его технической подкованности или материальных возможностей. Позднее, при необходимости и/или возможности можно легко перейти к использованию серверного движка. Более того, можно на одном и том же сайте сочетать оба способа: виртуальные папки, обрабатываемые серверным движком, и физические папки — при этом при наличии завершающего слэша URL-адреса будут в обоих случаях единообразными.

Для тех, кто утверждает, что слеш в конце url нужно ставить и что веб-сервер очень напрягается, если слеш не поставить, прошу выложить кусок кода из apache или nginx отвечающий за реализацию данного алгоритма — это же opensource проекты, всё в свободном доступе.
Поисковикам же совершенно всё равно, по какому адресу обрабатывать страничку, главное чтоб небыло задвоения, поэтому в правилах веб-сервера делаем 301 редирект на какой либо из вариантов.
Поисковики не панацея интернета, и как заметил уважаемый IlVin IlVin
«В www.ietf.org/rfc/rfc1738.txt этот вопрос не регламентирован.»
Поисковики пишут универсальные алгоритмы для того чтобы их поиск был качественен, но они не распоряжаются, как должен работать тот или иной веб сервер. Есть запрос по url и есть ответ — всё просто.
Сам я терпеть не могу, когда попадается сайт со слешами на конце особенно г..сайтах. Сайту и так плохо, так еще какой то не компетентный СЕОшник еще больше его запорол.

Люди, не перебарщивайте и не втирайте про слеш на конце, он там вообще не нужен, т.к. в url нет понятия «Директория» — это не файловая система. URL — это адрес, состоящий из символов, слеш определяет структуру адреса, только и всего.

Правильный ответ дадут только программисты Яндекса. Не слушайте доморощенных сеошников.

Подозреваю, что это вообще не имеет значения.

Сам я считаю, что лучше без слеша. Если его нет, то он никуда случайно не пропадёт и не создаст 404, если вдруг он значащий, да и на один байт короче выходит.

правильнее со слешом, так как «образно говоря» site.ru/path/to/page/ подразумевает site.ru/path/to/page/index.html (более того если вы напишите site.ru/path/to/page/index.html тотже гугль будет долбиться в итоге в site.ru/path/to/page/)
а если вы напишите site.ru/path/to/page это будет ссылка на непонятно что.
Другое дело может быть например в случае site.ru/path/to/last.page
также совершенно валидно site.ru/path/to/page.html

Не думайте как правильно — подумайте как «семантичней»

Уровень вложенности

Уровень вложенности определяют по отдаленности страницы от главной сайта. Измеряется «путь» количеством кликов мышкой, которые делает посетитель, чтобы перейти в нужный раздел. Визуальное определение, что такое уровень вложенности — пирамида.

Главная страница — всегда первый уровень вложенности. Любые страницы, которые имеют прямое перенаправление с главной, автоматически становятся на второй уровень. Два перехода – третий уровень вложенности.

Считается, что роботы-поисковики приравнивают уровень вложенности к количеству слешей в URL. Утверждение спорное, ведь ссылки на один раздел могут быть проставлены одновременно на всех уровнях.

Влияние

Уровень вложенности определяет скорость индексации страниц, также целого ресурса. Чем глубже она «зарыта», тем меньше вероятность, что до нее доберется поисковой робот. Рекомендуют не заводить страницы 4 уровня. Мелкие площадки, имеющие более двух уровней, считаются неоптимизированными. Для больших ресурсов рамки расширены, им позволительно заводить до трех уровней.

Планируя использовать ресурс для размещения ссылок, следует исследовать сайт и удалить лишние уровни вложенности. Лучше потратиться на изменение структуры, чем потерять заработок. Цена перехода со страниц уровня 2 или 3 вдвое ниже аналогичного, но с первого.

Кому мешают исходящие ссылки: влияние ссылок на позиции сайта в выдаче

От автора

Отношение поисковиков к исходящим ссылкам постоянно меняется. В этой статье базовые вопросы, касающиеся исходящим ссылкам, которые попадают на ваш сайт по вашему желанию или работе ваших пользователей.

Что такое исходящие ссылки сайта

Исходящие ссылки это HTML ссылка размещенная на вашем сайте, переход по которой ведет на сторонний Интернет ресурс, то есть ресурс вне вашего домена.

В тегах HTML исходящая ссылка выглядит так:

Индексация исходящих ссылок

Поисковые машины, обходя страницы вашего сайта, «видят» исходящие ссылки и индексируют их, занося в свою базу данных. Более ранние алгоритмы поисковиков, «тупо» сливали вес ваших страниц (ТИЦ и PR) на ссылающиеся ресурсы. Так как, в алгоритмах поиска ТИЦ и PR занимали ведущие места, то и ваш сайт мог просесть в поисковой выдаче.

Ссылкам на качественный ресурс говорим — Да

Но поисковые алгоритмы сменились и на первые позиции поисковой выдачи вышли релевантность страниц и качественный контент для посетителя. Напомню, релевантность это соответствие содержания статьи поисковому запросу пользователя.

Вес ТИЦ и PR сайта и его страниц ушли на вторые места, но не исчезли совсем. Именно по этому, не утихают споры об их значении, а все линкброкеры фильтруют сайты по показателям ТИЦ и PR.

Давайте посмотрим, как Яндекс относится к исходящим ссылкам. Вот, что пишет сам Яндекс в рекомендациях оптимизатору.

Как видите, советы простые и логично понятные:

  • Не размещать все подряд исходящие ссылки, без проверки и разбора;
  • Следить на какой ресурс ведут исходящие ссылки, и отсеивать ссылки на не тематические, откровенно спамные и просто бесполезные ресурсы;
  • Все исходящие ссылки сайта, оставляемые в комментариях, форумах, обсуждениях должны проходить ручную модерацию и отсеиваться все по тем же признакам.
  • Яндекс «не любит» ссылки от линкоброкеров.

Почти также, к исходящим ссылкам относится и Google. Однако Google, стал приветствовать исходящие ссылки на весомые, популярные и значимые ресурсы по тематике статьи, на которой ссылка стоит. Также Google стал приветствовать цитирование весомых ресурсов, с указанием источника.

Такое отношение Яндекс и Google, по их мнению, помогают посетителю сайта, получить полную и качественную информацию по его поисковому запросу. И в этом есть логика, однако никто не гарантирует адекватность самих оценок исходящих ссылок самими поисковиками.

Еще один момент. Сайты, на которые ведут исходящие ссылки сайта, называют акцепторы. Так вот, прежде чем разместить, не закрытую исходящую ссылку на сайт-акцептор, нужно проверить позиции акцептора в поисковой выдачи и не размещать или закрывать исходящие ссылки на ресурсы с ничтожной выдачей.

Минимизируем исходящие ссылки с главной страницы

Основной вес сайта сосредоточен на главной странице сайта. Спроектируйте структуру сайта таким образом, чтобы с главной страницы количество исходящих ссылок было минимально. Не тематические ссылки счетчиков, фидов, ссылок авторов тем и расширений (плагинов) закройте или удалите совсем.

Как закрыть исходящую ссылку

Если вам не удается удалить исходящие ссылки сайта, закройте их тегами (для Яндекс) и (для Google). Синтаксис закрытия прост.

Важно отметить два обстоятельства

Тег nofollow работает только для ссылок и только для Google. При этом Google Bot НЕ передает вес по исходящей ссылки, но ссылку индексирует. Вот прямая цитата:

Как правило, переход по закрытым ссылкам не производится. Это означает, что по этим ссылкам Google не передает ни PageRank, ни текст ссылки. Благодаря nofollow ссылки не попадают в нашу «схему» Сети. Однако соответствующие целевые страницы все равно могут быть включены в индекс Google, если другие сайты ссылаются на них без использования nofollow или если их URL предоставлены Google с помощью файла Sitemap. Необходимо заметить, что другие поисковые системы могут обрабатывать nofollow несколько по-другому. Источник.

Тег noindex работает для Яндекс, но он не относится к закрытию ссылки как таковой. Парные теги noindex закрывают от бота Яндекс кусок текста, в котором может быть ссылка. На сегодня (05-03-2108) валидным считается такое использование тега noindex.

Как проверить исходящие ссылки сайта

Для проверки исходящих ссылок сайта есть много онлайн сервисов и программ.

Лучший бесплатный аудит исходящих ссылок, позволит сделать программа XENU (как работает программа я подробно описал в статье Проверка неработающих, битых и исходящих ссылок сайта программой XENU). Условно бесплатный аудит ссылок сайта (500 страниц бесплатно) делаем программой: Scrimimg Seo Spider.

Есть онлайн сервисы для поиска исходящих ссылок:

Оптимизация URL адресов страниц

Правильная оптимизация URL

О том, что внутренняя оптимизация сайта должна быть на высшем уровне Вы, конечно же, не раз слышали ранее. Ведь об этом неустанно твердят все веб-сайты о SEO, в том числе и наш.

В этом материале мы не станем повторяться и еще раз рассказывать об оптимизированных title, description, заголовках страниц и т. д.

Сегодня мы хотим Вам рассказать об одном довольно редко упоминаемом моменте – о том, что правильно составленный URL страницы является не менее важным показателем ее релевантности и фактором, который охотно учитывается при ранжировании поисковых выдач.

К сожалению, довольно существенная часть вебмастеров забывает или, возможно, даже не знает, как правильно прописывать URL страниц. Многие привыкли полагаться на автоматические функции используемых CMS, которые в большинстве случаев делают это неправильно.

Эта статья однозначно Вам пригодится, если на Вашем сайте адреса страничек выглядят примерно вот так:

Немного теории: что такое URL?

В дословном переводе URL (англ. Uniform Resource Locator) – это унифицированный адрес ресурса.

Если более простыми словами, то – это стандартизированный способ записи расположения (адресов) всех существующих интернет-ресурсов (файлов, страниц, веб-сайтов).

Полный адрес всегда начинается с сетевого протокола. Например, протокол https или чаще всего http. Хотя существует еще около 30 реже используемых разновидностей (ftp, irc, xmpp и т. п.).

В большинстве современных браузеров http опускается. Убедиться, что перед Вами правильно составленный URL можно, если скопировать и вставить его куда-нибудь.

Далее, за протоколом передачи данных следует домен и конкретный путь к интернет-ресурсу (к файлу или страничке). И вот именно с правильного прописывания этого пути и состоит оптимизация URL.

Как прописать URL адрес страницы правильно

  1. Правильно составленный URL должен содержать ключевые слова. Кроме того, что выбранное доменное имя для продвижения является очень важным и должно содержать основной ключевой запрос сайта, в адрес каждой странички также нужно включать запрос, по которому она продвигается.

И это будут учитывать не только поисковики.

Совпадения по введенному в поисковую строку запросу выделяются жирным не только в названии и описании сайта, но и в адресе. Поэтому если правильно написать URL, интернет-пользователи также будут обращать внимание на него в результатах поиска и будут учитывать во время формирования своего мнения о релевантности страницы и возможности перехода на нее.

Оптимизация URL страниц, с точки зрения SEO, предполагает использование в адресе не более 3–5 слов. Длинные ссылки не отображаются полностью в выдаче (обрезаются) и снижают вес ключевых слов в глазах поисковиков.

Не стоит использовать слишком глубокий уровень вложенности страниц. Даже если страничка находится в пяти–шести шагах от главной, желательно правильно прописывать URL – убирать из адресов излишние упоминания о категория, рубриках и т. д.

Повышенное количество уровней вложенности в URL не только увеличивает его длину и уменьшает вес ключевиков, но также плохо влияет на восприятие образовавшегося адреса посетителями. В нем сложно разобраться и его практически невозможно запомнить.

  • Существуют рекомендации по поводу того, что наиболее правильно прописывать URL с расширением файла в конце («.html», «.php» и т.п.). Хотя такое утверждение является довольно спорным, поскольку для поисковиков это наверняка неважно. Разве что человеку становится понятно, что страница, на которой он находится – это конечный пункт и глубже перейти нельзя.
  • Для того чтобы прописать URL адрес страницы, состоящий более, чем из одного слова, в роли разделителей лучше использовать дефисы, а не нижние подчеркивания. В то время как у Google с их распознаванием все в порядке, для Яндекса дефисы все еще предпочтительнее.

  • Правильно составленный URL должен содержать только символы, прописанные в нижнем регистре. Если этой рекомендации не придерживаться, могут быть проблемы с индексацией страничек.
  • Использование кириллических символов допустимо, но нежелательно. Поскольку они только визуально отображаются в адресной строке в таком же виде, как вы захотите прописать URL адрес страницы. На самом же деле каждая русская буква перекодировывается в виде шести символов.

    Поэтому в SEO, чтобы иметь правильно составленный URL, рекомендовано пользоваться только латинскими символами и цифрами в адресах страничек.

  • Под оптимизацией URL также подразумевается наличие только одного адреса у каждой страницы. Если имеется проблема с автоматическим генерированием, дубли страниц нужно закрывать от индексации и использовать атрибут rel=«canonical» для указания канонических версий.
  • Правильно написать URL несложно, но при этом нужно не забывать, что ключевые слова в нем учитываются при оценке частности их использования. То есть если на странице (в тексте и заголовках) у Вас встречается поисковый запрос 8 раз и это является предельно допустимым количеством в конкретном случае, то 9-й раз в адресе будет уже явным пересмамом. Следовательно в тексте нужно использовать ключ на 1 раз меньше.
  • Необязательно правильно прописывать URL вручную. Например, в WordPress можно настроить автоматическое формирование адреса создаваемой странички путем транслитерирования используемого заголовка H1 с помощью плагина Cyr-To-Lat.

    Правильно составленный URL – не панацея

    Не стоит надеяться, что лишь оптимизация URL согласно вышеперечисленных рекомендаций сразу же поднимет странички Вашего веб-сайта в ТОП.

    Помните, что это лишь один из элементов, влияющих на поисковое продвижение.

    Поэтому позаботьтесь о том, чтобы у каждой страницы Вашего сайта всегда был правильно составленный URL и продолжайте работать во всех остальных направлениях оптимизации, которыми изобилует SEO!

  • Добавить комментарий