GetBot.guru — почему так важна быстрая индексация страниц сайта в Яндексе и как ее можно ускорить


Содержание материала:

Как ускорить индексацию сайта

Пожалуй, самый волнующий вопрос всех вебмастеров это как ускорить индексацию сайта в поисковых системах.

Причем если Google индексирует быстро и не надо прилагать особых усилий, то индексация в Яндексе иногда затягивается надолго. Поэтому, рассматривая сегодня вопрос ускорения, мы будем в первую очередь подразумевать ускорение индексации сайта в Яндексе.

Ускорить процесс индексации можно как платными методами, так и бесплатными. Для получения гарантированного результата желательно использовать сразу несколько перечисленных ниже способов. Итак, переходим к самим способам ускорения. Я решил описать все бесплатные способы ускорения индексации, какие только возможны.

Быстрая индексация сайта в Яндексе и Google

1) Структура сайта. Продумайте и постройте структуру своего сайта так, что бы поисковый робот без труда добрался до любой страницы. Очень желательно сделать вложения страниц не более трех кликов от морды. В противном случае индексация может затянуться.

2) Внутренняя перелинковка сайта. О пользе внутренней перелинковки я уже писал. Как раз одна из ее задач это ускорение индексации ресурса. Мы помним, что бот ходит по ссылкам внутри сайта, чем больше ссылок ведут на разные страницы. Тем быстрее бот их найдет и включит в индекс.

3) Карта сайта (sitemap). Это должен быть неотъемлемый элемент любого веб-сайта. Ее основная и единственная задача — это ускорение нахождения роботом всех страниц сайта. Показать Google и Яндексу карту сайта, можно через панель вебмастера. Так же путь к ней указывается в файле robots.txt. Так же будет полезным сделать html вариант карты сайта, которая будет доступна в одном клике т главной. Все сомнений, что карта сайта хорошо помогает ускорить индексацию внутренних страниц сайта.

4) Добавление сайта в панель вебмастера Яндекса и Google. Панели вебмастера дают широкие возможности по контролю за разными параметрами сайта. И если для хороший сайтов это плюс, то для откровенных ГС будет минусом. Если у вас СДЛ то смело добавляйте.

5) Добавление в адурилки ПС. Можно добавить как новый сайт, так и новые страницы на сайте непосредственно в саму ПС через специальную форму addurl. Подробно про это читайте в статье добавление сайта на индексацию.

6) Добавление сайта в популярные рейтинги. Такие широко известные рейтинги как Рейтинг@Майл, Рамблер ТОП100 и LiveInternet часто посещаются поисковыми ботами. Соответственно если они найдут там ссылку на ваш сайт, то перейдут на него.

7) Регистрация в трастовых каталогах. Не поленитесь и отправьте заявки на добавление сайта в трастовые каталоги. Они есть у всех популярных поисковиков: На Яндексе это Яндекс.Каталог (с 2020 года не принимают новые сайты), у Googla это DMOZ (закрылся в 2020 году) и Каталог Майла. На самом деле регистрация в них нужна не для индексации а для набора траста сайта. Ведь попасть в каталог, даже если ваш сайт туда примут можно в лучшем случае через три месяца (для Я.Каталога). В дмоз же вообще можно прождать год, там жуткая нехватка модераторов и сайт будет висеть на рассмотрении до посинения…

8) Прогон по каталогам. Речь идет про регистрацию в куче низкосортных каталогов. Вручную делать это безумие, нужно пользоваться специальными сервисами. Например, я раньше пользоваться сервисом 1PS. Он мне очень нравился тем, что в ночное время можно было работать с сервисом совершенно бесплатно. В то время каждая копейка была на счету. Сейчас этот сервис предоставляет большое количество услуг, не только прогоны.

9) Публикация статей в каталогах статей. По сути, это тоже самое, что пункт выше, только там мы размещаем ссылки, а тут статьи. В сети есть большое количество таких каталогов, а так же сервисы рассылок по ним. Прогон по каталогам статей для ускорения индексации нового сайта так же можно сделать через упомянутый выше сервис.

10) Использование социальных закладок. Социальные закладки хорошо индексируются поисковиками. Вы можете сделать прогон по социальным закладкам или вручную добавить ссылки на страницы своего сайта. Отличие от прогона по каталогам в том, что в каталоги можно добавить только главные страницы, а в закладки еще и внутренние.

11) Размещение анонсов и пресс-релизов на трастовых сайтах. Процесс полностью ручной и очень трудоемкий. Я собрал свою базу трассовых сайтов через один сервис, который сейчас загнулся.

12) Используем сервисы вопросов и ответов. Сервисы вопросов и ответов очень любят поисковые боты, наравне с пользователями, которые там тусуются. Там тоже можно оставить ссылку на свой сайт, как самому, так и найти исполнителя через адвего. Если у вас нет прокаченной репы, то вашу ссылку, скорее всего, удалят модераторы. Они там очень злые))). Поэтому лучше найти хорошего исполнителя и работать с ним. Google прикрыл свой сервис, теперь там можно только читать, а вот на Mail.ru еще можно.

13) Комментарии в тематических блогах. Качественные блоги, которые не завалены рекламой, часто обновляются и имеют постоянных читателей так же часто посещаются поисковыми роботами. Такие блоги тоже можно использовать для ускорения индексации. Конечно, если будете спамить толку не будет, админы будут удалять ваши ссылки. Просто добавляйте ссылку в предназначенное для этого поле. Найти такие блоги легко, можно воспользоваться одним из Интернет-рейтингов, спросите в Яндексе «рейтинг блогов».

14) RSS-трансляция. Если на вашем сайте есть такая возможность, можно организовать RSS-трансляцию в специальные RSS-каталоги. Анонсы ваших новых материалов на других сайтах смогут привести поисковых ботов на ваш ресурс. Рекомендую добавить трансляцию в эти каталоги: Feedreader.ru, Feedburner.com, Newsread.ru, LiveRSS.ru, Rssreader.ru, Plazoo.com.

15) Используйте популярные форумы. Хороший способ ускорить индексацию сайта это ссылка в профиле популярного форума (если профиль открыт к индексации) и ссылка в подписи. Найдите топовые форумы по вашей тематике и зарегистрируйтесь в них. Боты любят форумы с большим количеством новых ежесуточных сообщений. Участвуйте в «горячих» диалогах на форуме и бот найдет вашу ссылку в подписи. Помимо индексации такие ссылки еще дадут и трафик на сайт, пусть не большой, но все же.

16) Пингование. Популярные движки для сайтов, типа WordPress обладают функцией пингования. Т.е. они посылают сигнал ПС о новой странице на сайте. Если у вашей CMS есть такая функция — почему бы не воспользоваться ей.

17) E-mail рассылка. Доказанный факт, что быстрая индексация сайта возможна при почтовых рассылках. Особенно если люди будут переходить на рекламируемый сайт по ссылкам из почты. Самый популярный сервис для e-mail рассылки Subscribe.ru. Вам нужно там зарегистрироваться и организовать выпуск рассылки.

18) Блоги на бесплатных блогохостингах. Блоги на бесплатных хостингах LiveJournal.com (он же ЖЖ), Blogger.com, Liveinternet.ru, Blogs.Mail.ru и т.д. тоже могут помочь нам в индексации нового сайта. Заводим там себе новый блог и ставим ссылки на нужный сайт. Боты любят эти сервисы и обязательно заметят появление нового блога. Что бы ускорить этот процесс, можно завести «дружбу» с другими блогерами этого сервиса.

19) Социальные сети. Я оставил это на закуску. В данный момент это один из лучших способов ускорения индексации сайта. Особенно твиттер. Обязательно заведите себе твиттер аккаунт. Прокачайте его как следует, и это будет незаменимая вещь для индексации новых страниц сайта. Буквально через минуты, после публикации ссылки в прокаченном твиттере, станицы появляются в выдаче Яндекса. Раскрутить твиттер можно этим софтом

20) Свои сайты в помощь. Если у вас уже есть другой сайт, который в индексе — поставьте с него сквозную ссылку на новый сайт. Бот найдет ее и перейдет для изучения нового сайта.

21) Через систему автоматического продвижения SeoPult. Делается проект и закупаются ссылки на нужные вам страницы, например на карту сайта, главную и страницы разделов.

Вот мы и рассмотрели все возможные бесплатные способы повлиять на скорость индексации нового сайта или страниц. Существуют и платные способы, но они все однотипны — это размещение ссылки на чужом веб-сайте. Лично я, когда мне это нужно, иду в биржу sape делаю там проект, и покупаю 2-3 ссылки на крупных новостных сайтах. В идеале купить морду, хоть цена ее и большая. Но мы покупаем на день-два, этого достаточно для приглашения бота на сайт.

Думаю данный вопрос рассмотрен более чем подробно, пришло время поговорить, а как же проверить индексацию сайта в различных поисковиках.

Как ускорить индексацию сайта в Яндекс и Google

Чем быстрее будет индексироваться сайт — тем быстрее можно получить результаты по SEO. Это самое базовое правило при продвижении сайтов, именно поэтому над ускорением индексации следует поработать как следует в самом начале работы. Данные методики подойдут как для поисковой системы Яндекс, так и для Гугл.

Методики

Существует несколько основных методик, которые приведут и, что не маловажно — удержат поисковых роботов на сайте. Рассмотрим некоторые из них.

1. Хорошая перелинковка

Чем лучше перелинкован сайт, тем проще роботу его обойти. Есть множество методик, среди которых и перелинковка звездой и кольцом, и еще десяток разных способов, но самое главное — на сайте не должно быть страниц, которые никуда не ведут. Т.е. на каждой странице должны быть ссылки на другие страницы. Но тут главное не переусердствовать. Самый простой способ делать это не вручную, а автоматически — это использовать готовые модули. Например, для интернет-магазинов это может быть блок с похожими товарами, для блога — рекомендации других материалов и т.д. Такая простая перелинковка может значительно ускорить индексацию сайта, потому что не отпустит робота, пока он не перейдет по всем страницам.

2. Наличие карты сайта

Карта сайта — обязательный элемент сайта (если конечно у Вас не лэндинг). Поэтому обязательно сделайте карту сайта для своего ресурса. Кроме того, настоятельно рекомендуем добавить в нее тег lastmod. В нем должны отображаться дата и время последнего изменения страницы. В этом случае индексация всех изменений будет происходить значительно быстрее, т.к. роботы поисковых систем будут знать — какие страницы изменились, а какие — нет.

3. Внешние ссылки и социальные сигналы

Роботы ходят по всем ссылкам и естественно — по внешним ссылкам они так же могут попасть на Ваш сайт. Данный метод наименее предпочтителен и им надо пользоваться только если Вы четко знаете, что делаете, т.к. поисковые системы то и дело сообщают о различных санкциях как за покупку, так и за продажу ссылок. Но социальные сигналы использовать можно и даже нужно! Если у Вас есть паблики в соц.сетях — смело публикуйте там ссылки на свой ресурс и мотивируйте пользователей делиться у себя на страничках этим контентом. Тогда поисковые системы будут чаще заходить. Кроме того, есть вероятность, что социальные сигналы являются одним из факторов ранжирования.

4. Специальные сервисы ускорения

Помимо официальных сервисов переобхода страниц в Яндекс.Вебмастере и Google WebMasters, о которых мы уже писали, есть также несколько платных ресурсов, утверждающих, что они могут сделать ускоренную индексацию. Работают они по принципу внешних ссылок и социальных сигналов на сотнях фейковых аккаунтов. Чаще всего используются аккаунты твитера, социальные закладки и форумы. Вот несколько примеров подобных сервисов.
getbot.guru
indexgator.com
indeksator.com

5. Отсутствие дублей страниц

Мы уже писали большую статью о борьбе с дублями на сайте. Рекомендуем ее почитать и избавить сайт от всего лишнего. Дело в том, что наличие дублей так же снижает скорость индексации, т.к. роботам приходится обходить множество ненужных страниц и определять — какую оставить в индексе, а какую из индекса убрать. Чем больше мусора — тем медленнее индексация.

6. Регулярные обновления ресурса

Есть такое понятие, как быстроробот. Чаще всего оно применимо к СМИ и крупным ресурсам, где каждую минуту появляется новый контент. Наверняка Вы замечали, что новость только вышла, а уже в индексе сотни страниц на эту тему. Так вот — принцип данной технологии очень прост — чем чаще обновляется Ваш сайт, тем чаще на него заходят роботы поисковых систем. Соответственно — возьмите себе за правило регулярно добавлять на сайт новый контент и про проблему с индексацией можно будет забыть навсегда ��

Топ-пост этого месяца:  Обмен аудиториями ретаргетинга ВКонтакте как скачать и поделиться

Важность быстрой индексации страниц сайта в Яндексе и ее ускорение с помощью Getbot guru

Здравствуйте, уважаемые читатели блога Goldbusinessnet.com! В этой публикации я постараюсь подробно описать инструмент, который поможет вам ускорить индексацию новых страниц своего сайта (тут — об общих принципах и методах ускорения индексирования в поисковых системах) и коим является онлайн сервис Getbot.guru.

Если лидер мирового поиска Google довольно активно индексирует свежий контент даже молодых вэбсайтов, то «зеркало рунета» осуществляет быстрое индексирование с большой неохотой, делая исключения разве что для крупных трастовых и новостных вебресурсов. Поэтому очень часто особую ценность приобретают вебсайты, страницы которых попадают в индекс Яндекса в минимально возможные сроки после публикации.

Механизм работы быстробота и причины необходимости ускорения индексации в Yandex

Важное замечание: прежде, чем перейти к теме сегодняшнего материала, хочу предупредить, что нужно использовать услуги Getbot крайне осторожно, поскольку привлечение ботов Яндекса для индексации здесь происходит не совсем естественным путем. Применяйте услуги этого сервиса только в том случае, если вы полностью уверены в актуальности и высоком качестве вашей статьи. Ну а теперь к делу.

Итак, для начала необходимо кратко описать механизм и правила, по которым поисковой лидер рунета индексирует страницы различных ресурсов. Алгоритмы поисковых машин работают в зависимости от множества факторов. Например, для индексации вебстраниц новостных ресурсов применяются так называемые быстроботы (ББ), задача которых подготовить почву для того, чтобы Яндекс мог оперативно ранжировать такие сайты. Это и понятно, ведь новости остаются актуальными короткое время и появляются по нескольку раз в день.

Однако, быстробот посещает не только вебстраницы новостных вебсайтов, но и следует по всем ссылкам, расположенным на них. Следовательно, он потянет в индекс не только новостной контент, но и документ, на который он перешел по ссылке. Собственно, эту особенность и используют сервисы по ускорению индексации, в том числе Getbot guru и иже с ним.

Не лишним будет отметить, что попадание вебстраницы в быстрый индекс совершенно не гарантирует, что она останется в основном. Это зависит в первую очередь от качества уникального контента, а также от многих других составляющих. Поэтому не нужно переоценивать возможности быстроботов. Чтобы их привлечение было максимально эффективным, необходимо для начала как следует оптимизировать публикуемую вэбстраницу.

Ну а теперь о некоторых причинах, по которым нужно стараться как можно быстрее отправить свежую страницу в индекс Яндекса, используя тот же Getbot.guru:

1. Во-первых, это оказывается полезным для молодых вебсайтов в плане закрепления авторского права за их владельцами и защиты их от копипаста (здесь о copypast и методах борьбы с ним). Ведь пока контент такого ресурса будет проиндексирован, его могут перехватить нечистые на руку дельцы и опубликовать на своем более «зрелом» ресурсе, который индексируется быстрее и набрал определенный траст.

В этом случае очень часто Yandex отдает пальму первенства более трастовому вебсайту, не разбираясь в деталях, вследствие чего автор очень часто полезного контента остается ни с чем. Несмотря на то, что поисковые системы предоставляют вебмастерам некоторые инструменты для подтверждения авторства (например, «Оригинальные тексты» в панели вебмастеров Яндекса), пока их эффективность оставляет желать лучшего.

2. Во-вторых, это просто жизненно необходимо, если вы зарабатываете с помощью своего сайта посредством продажи бэклинков на биржах типа ГетГудЛинкс, ГоГетЛинкс (тут и тут об этих биржах вечных ссылок детальные сведения) или ГоГетТоп либо на размещении статей на Миралинксе или ВебАртексе.

Ежели вы оптимизатор, то тоже кровно заинтересованы в ускоренной индексации и будете выбирать соответствующих доноров, на которых новые статьи быстро попадают в индекс. Чем быстрее происходит индексирование, тем оперативнее вы получите эффект от размещенных SEO ссылок.

3. В-третьих, очень часто приходится заниматься обновлением старых статей (например, я на своем блоге делаю это регулярно, хотя не в таких масштабах, как хотелось бы) ввиду постепенного устаревания информации, по причине их оптимизации под новые требования поисковиков либо из-за наложения тех или иных фильтров от Яндекса. В таких случаях Getbot.guru, скажем, вполне способен значительно ускорить процесс переиндексации, который в обычном режиме может растянуться на месяцы.

Естественно, это не все причины, по которым важна быстрая индексация сайта. Опытные вебмастера вполне могут серьезно дополнить этот список, что я и призываю сделать в комментариях. Но, думаю, общая картина предельно ясна. Далее мы остановимся на технических нюансах ускорения индексирования посредством упомянутого уже мною Getbot.guru.

Getbot.guru — сервис ускорения индексации

Для начала я хотел бы акцентировать ваше внимание на том, что для работы поисковой системы Яндекс используется основной робот, который помещает найденные в интернет пространстве вебстраницы в основной индекс. Эти документы затем появляются в результатах выдачи по тому или иному запросу. Обновление выдачи происходит не постоянно (как в Гугле), а в определенные дни, соответствующие так называемым текстовым апдейтам.

Быстробот же, о котором я упоминал выше и внимание которого должен привлечь тот же Getbot.guru, предназначен для быстрой индексации страниц новостных порталов, что позволяет Яндексу оперативно выдавать самые свежие новости, необходимые пользователям. Напомню, что размещение ссылки, ведущей на вашу вебстраницу на одном из таких вебресурсов, позволит ББ оперативно ее проиндексировать.

Также необходимо отметить, что в дальнейшем попадание такого документа в основной индекс Яндекса будет зависеть от того, насколько корректно он оптимизирован. Кроме этого, ББ не может затащить в индекс абсолютно любую вебстраницу. Для этого необходимо выполнение целого ряда условий:

  • Прежде всего, вэбстраница не должна быть запрещена для индексации в файле robots.txt (в этом материале о содержании и создании правильного роботс тхт для WordPress вы найдете исчерпывающую информацию);
  • На вебсайт, страница которого подлежит индексированию, не должен быть наложен ни один из фильтров, например, тот же АГС; быстроботы такие документы индексировать точно не будут;
  • Доменное имя не должно быть забанено (чтобы устранить эту неприятность, нужно подать запрос в панели вебмастеров Яндекса);
  • Индексируемая страница должна быть доступна для поискового робота;
  • Ежели на сайте приличное количество времени висела заглушка с запретом индексирования, то также могут возникнуть сложности с привлечением быстробота. В таком случае придется ждать пару апдейтов.

Как зарегистрироваться и создать проект в Гетботе

Все, вроде бы предварительная часть закончена, надеюсь, вопросов не осталось. Теперь переходим к техническим деталям. Для начала зарегистрируемся на сервисе Getbot.guru, перейдя на эту страницу и вписав в специальную форму традиционные логин, e-mail и пароль. Причем подтверждать адрес электронной почты после завершения регистрации не нужно. Вы можете перейти вниз вебстраницы и послать сообщение в хелп системы:

В этом случае получите бонусный купон, после активации которого на ваш счет поступит небольшая сумма, достаточная для тестирования Getbot. Для начала работы с сервисом необходимо пополнить баланс (как вы понимаете, это удовольствие не бесплатное), перейдя в соответствующую вкладку:

Причем внутри системы действуют свои денежные единицы, которые имеют прогрессивный курс по отношению к рублю — чем больше сумма пополнения бюджета в рублевом эквиваленте, тем больше в процентном отношении единиц вы получите:

Чтобы начать конкретное сотрудничество с Getbot.guru, нужно перейти во вкладку «Проекты» и щелкнуть по кнопке «Создать»:

Заполняете графы с названием и описанием проекта. Эта информация нужна для вас лично, чтобы потом не запутаться, если в дальнейшем будет создано несколько проектов. Чуть ниже в поле «Ссылки» вводите URL вэбстраниц, подлежащих быстрой индексации или переиндексации в Getbot.guru.

Еще ниже идет перечень всех возможных тарифов с описанием производимых в их рамках действий. Обратите внимание, что происходит возврат средств за не проиндексированные страницы, что, конечно, позволяет максимально оптимизировать бюджет. Есть возможность осуществить простую проверку присутствия страниц вебресурса в индексе Яндекса всего за 0,05 единицы. Для каждого тарифа предусмотрены скидки за объем.

В левой части дан перечень тарифных планов Getbot.guru с указанием количества страниц, стоящих в очереди. «Экспресс Приоритет» от Getbot дает вам преимущество в очередности выполнения задания. Именно при выборе этого тарифа есть смысл произвести проверку нахождения вебстраниц в индексе, о возможности которой я упомянул чуть выше, поскольку на «Приоритете» она не проводится.

Да, чуть не забыл. На Getbot.guru существует лимит на количество урлов, которые вы желаете использовать в одном проекте, который равен 10 000. Все, теперь жмем на кнопку «Сохранить»:

Далее для активации процесса следует просто нажать на «Старт». Замечу, что вы в любое время можете удалить созданный проект, воспользовавшись соответствующей одноименной кнопкой.

Добавление RSS канала для автоматического индексирования новых материалов сайта

Теперь рассмотрим еще одну полезную возможность, которая предоставляется Getbot, а именно возможность автоматизировать процесс быстрой индексации, добавив ленту RSS своего блога. Кстати, вы можете ознакомиться с подробным материалом о том, как добавить feed вебресурса, работающего на WordPress, в популярный сервис Feedburner. Итак, перемещаетесь во вкладку «RSS каналы» своей учетной записи и используете кнопку «Создать»:

В форму необходимо внести URL адрес RSS ленты своего ресурса (здесь — о создании фида на сервисе Feedburner), а также название и описание проекта для удобства. Далее нужно запустить проект нажатием кнопки «Старт», также в случае изменившихся обстоятельств его можно удалить:

После запуска проекта его статус измениться на «Выполняется»:


Теперь процесс полностью автоматизирован и абсолютно не требует вашего вмешательства. Боты Яндекса будут посещать RSS ленту с периодичностью 12 часов на предмет появления новых урлов, ведущих на страницы вашего вебсайта. Кроме всего прочего будет выполняться проверка на присутствие вебстраниц вебресурса в основном индексе.

Обращаю ваше внимание на то, что если вы выбираете тарифный план «Абсолют апдейт», то выполнение задания может занять от 5 до 15 дней, все зависит от регулярности текстовых апов Яндекса. Ведь по данному тарифу происходит проверка попадания страницы в основной индекс. Ежели вы желаете просто обеспечить вхождение статьи с контентом в быстрый индекс, то можете выбрать другой тариф.

После обнаружения новых материалов автоматически будет создаваться новое задание по выбранному плану. Все это дело можно мониторить во вкладке «Проекты». В общем, при добавлении ленты своего блога вам нужно будет следить лишь за пополнением своего баланса на Гетбот. Очень удобно.

Что такое индексация сайта в поисковых системах: как проверить и ускорить индексирование страниц

В этой статье я расскажу о том, что такое индексация сайта. Уверен, многие прекрасно понимают значение этого термина, но я постараюсь рассмотреть его более глубоко.

Мы поговорим о том, как улучшить индексацию сайта, какие действия нужно выполнить для того, чтобы поисковые роботы относились к проекту лояльно. Также мы кратко затронем тему требований поисковых систем и санкций за их невыполнение.

Определение

Представьте, что сайт – это документ или несколько документов с информацией. Поисковая система – сборник таких документов, работающий по определенным правилам. Он помогает пользователям в кратчайшие сроки найти документ с нужной информацией. Для этого необходимо проверить каждый документ, посмотреть, какого рода в нем информация, после чего разместить его где-то относительно других документов. Это и есть индексация.

Индексация – это добавление информации о сайте в базы данных поисковиков.

Роботы приходят, сканируют весь контент, если все хорошо, – контент заносится в поисковые базы и начинает ранжироваться относительно других проектов.

После этого материалы попадают в поисковую выдачу. Позиция в поисковой выдаче может зависеть от качества материалов, самого ресурса, технической и внешней SEO-оптимизации и других факторов.

Поисковые системы заинтересованы в том, чтобы их пользователи получали качественные материалы в выдаче. По этой причине поисковая оптимизация претерпела очень много изменений за последние годы.

Раньше вебмастеры старались угодить роботам, делая свои проекты максимально “удобными” для индексации. Сейчас же роботы научились отличать “сеошный” бесполезный контент, от качественного и адекватного.

Поэтому для хорошей индексации не хватит простой SEO-оптимизации. Нужно понимать, что сейчас поисковые системы отдают предпочтение ресурсам с хорошими поведенческими факторами. Их можно добиться только при разработке проекта для людей.

За переоптимизацию или создание некачественного бесполезного контента ресурс может попасть под санкции. Это может включать в себя как простое снижение приоритета, так и полный запрет индексации со стороны поисковиков – материалы проекта удаляются из поисковых баз данных и больше никогда туда не попадают.

Если устранить все ошибки и больше никогда не допускать их, поисковики возвращают сайт к нормальному состоянию. Для этого придется написать в техническую поддержку с просьбой о проверке текущего состояния проекта.

У каждой поисковой системы есть свои правила. В большинстве своем они почти ничем не отличаются, поэтому вебмастеры стараются оптимизировать свои проекты сразу и для всех.

Особенности работы с поисковыми системами

Яндекс и Гугл – два наиболее популярных поисковика в России и СНГ. В основном люди, работающие с информационными проектами, стараются оптимизировать их именно под эти сервисы.

Когда вы только создаете свой сайт, то поисковые системы еще ничего не знают о нем. Поэтому для того, чтобы ресурс попал в поисковую выдачу, вы должны каким-то образом сообщить сервисам о том, что он существует.

Для этого можно использовать два способа:

Способ 1. Разместить ссылку на каких-то сторонних проектах.

В этом случае проект будет проиндексирован максимально быстро. Поисковик посчитает, что ваш сайт полезный и интересный, поэтому он сразу направит роботов для анализа содержимого.

Способ 2. Сообщить поисковикам о ресурсе при помощи специальных инструментов.

В Яндексе и Гугле есть специальные сервисы для вебмастеров. С их помощью вы сможете отслеживать состояние своих ресурсов относительно поисковых систем: смотреть статистику, количество показов, кликов, добавленные или удаленные страницы и т. д.

При добавлении сайта в эти инструменты вы сообщаете поисковикам о том, что проект существует. И если нет никаких запретов через Robots.txt или мета-теги, то он будет проиндексирован и добавлен в выдачу.

Срок добавления сайта в базу данных может быть разным: от нескольких дней до недели. Но обычно с этим не затягивают, особенно если ресурс добавлен в Yandex.Webmaster и Search Console.

Топ-пост этого месяца:  Актуальные тренды веб-дизайна полноэкранные домашние страницы

Не забывайте, что добавление в базу данных – еще не означает, что материалы сайта сразу будут доступны по определенным запросам. Для этого может понадобиться дополнительное время. Роботы тщательно изучат содержимое проекта, и только после этого статьи будут доступны к показу по запросам.

Если вы решите не открывать ресурс сразу, а подождать, пока он заполнится определенным количеством материалов, то после отправки на анализ может пройти чуть больше времени. То есть, чем больше информации на проекте, тем дольше придется ждать полной индексации.

В среднем между отправкой сайта в сервис и появлением статей в выдаче проходит 1 – 2 недели.

Помимо вышеописанных способов добавления ресурса в поисковую базу, существует еще один, менее эффективный. Вам просто нужно ввести в поисковую строку следующие команды:

  • Для Яндекса: Host: Название + site.ru.
  • Для Google: Site: Название + site.ru, где site.ru – ваш домен.

Также вы можете попробовать добавить ресурс при помощи автоматических сервисов. Какой будет результат – неизвестно. Но я полагаю, что эти сервисы просто воспользуются командами или размещением ссылки где-либо.

Как проверить индексацию

Проверка индексации – тоже очень важный момент. Нужно удостовериться, что все страницы были восприняты как надо.

Если вы добавили сайт через инструменты для вебмастеров, то статус индексации можно узнать прямо там – в соответствующем разделе. В нем будет дана подробная информация о том, когда робот посещал страницу последний раз, какой статус он ей присвоил и т. д.

Также вы можете проверить статус при помощи строки поиска. Для необходимо воспользоваться специальными операторами. Их можно найти в документации для Яндекса и Гугла.

Если вам нужна массовая проверка, то вы можете воспользоваться специальными сервисами:

Отправление страницы на переобход

Если вы хотите, чтобы робот обошел материал еще раз, то вам необходимо отправить страницу на переобход. Это можно сделать при помощи панелей для вебмастеров.

В Яндекс.Вебмастере

Перейдите в “Индексирование” – “Переобход страниц”.

Введите адреса нужных документов в столбик – одна ссылка – одна строка. После этого нажмите кнопку “Отправить”. В течение нескольких часов робот Яндекса вновь проиндексирует материал.

В Search Console

Нужно ввести нужный адрес в поле в верхней панели – далее кликнуть на кнопку “Запросить индексирование”.

Как ускорить индексацию

Чтобы ускорить индексацию, вы должны соблюсти несколько требований. В первую очередь, это добавление ресурса в поисковую систему – желательно через сервис для вебмастеров. Далее следуют повседневные рекомендации, выполняя которые, вы можете добиться ускорения этого процесса.

  1. Добавлять на сайт интересный контент. Будет лучше, если размещение материалов на ресурсе будет носить регулярный характер. В таком случае высока вероятность того, что на вашем проекте будут обитать быстроботы – они индексируют статьи в течение нескольких часов.
  2. Оптимизировать скорость загрузки при помощи сжатия картинок, оптимизации HTML, CSS, JS. Будет хорошо, если вы подберете для своего проекта быстрый виртуальный хостинг.
  3. Сформировать правильную структуру сайта, добавить функционал для удобной навигации. Поисковики могут оценивать, насколько ваш ресурс удобен для пользователей.
  4. Настроить перелинковку между материалами, рубриками и прочими страницами. Когда робот анализирует какую-то страницу со ссылками, он автоматически еще и индексирует те документы, на которые эти ссылки ведут.
  5. Создать правильный robots.txt. Вы должны закрыть ненужные технические страницы, оставив только само содержимое. Так в ранжирование не будет попадать мусор, это гарантирует, что ПС будут чаще посещать ваш проект.
  6. Создать XML-карту сайта и добавить ее в Яндекс Вебмастер и Search Console. С помощью этой карты Яндекс и Гугл будут ориентироваться по материалам. Это в значительной мере улучшит скорость анализа. Также можно сделать обычную карту сайта для пользователей. С ее помощью ваши гости смогут легко находить нужные статьи или рубрики. Это улучшит поведенческие факторы и видимость в ПС.
  7. Создать профили своего проекта в социальных сетях и регулярно размещать там ссылки на статьи. Это элемент крауд-маркетинга, который сейчас очень хорошо воспринимается ПС.
  8. Регулярно проверять сайт на ошибки и устранять их. Самые серьезные будут отображаться в сервисах для вебмастеров. Также вы можете закидывать ресурс на валидатор, чтобы определить ошибки в HTML/CSS-коде.

Раньше для этих целей использовали пингование. Оповещение ПС при помощи специальных плагинов или сервисов о выходе нового поста. Сейчас такой формат почти не используется. Яндекс и Гугл ограничили этот функционал, теперь в прежнем варианте пинг использовать нельзя.

Как закрыть сайт от индексации

Для этого мы можем использовать два способа:

Просто нужно удалить все содержимое этого файла, добавив вместо него:

User-agent: *

Disallow: /

С помощью этой строчки вы скажете всем поисковым роботам, что ваш ресурс индексировать не нужно – ни одной странички. Если до этого какие-то материалы попали в ранжирование – они будут удалены.

Также можно запретить индексацию для роботов какой-то отдельной поисковой системы. Для этого вместо звездочки, в User-agent: вы должны ввести название этого робота. Например, Yandex – для Яндекса, Googlebot – для Google.

Когда вы передумаете, вам нужно будет просто удалить этот код и добавить вместо него нормальное содержимое файла.

На каждой странице должны быть размещены следующие мета-теги:

– если хотим закрыть для какой-то конкретной ПС, то в поле name вставляем имя робота.

Разместить такие мета-теги можно при помощи плагина Yoast SEO. В нем есть отдельные параметры, которые отвечают за индексацию. Можно закрыть как отдельную страницу, так и весь ресурс в целом.

Закрывать от индексации отдельные страницы при помощи мета-тегов считается хорошим тоном. Это и проще, и быстрее – не надо по многу раз дополнять файл robots.txt.

Заключение

Для того, чтобы ваш сайт хорошо индексировался, вы должны соблюдать совсем несложные требования. Нужно просто добавить его в Яндекс Вебмастер и Search Console, следить за регулярным выходом качественных материалов, своевременно исправлять ошибки и не нарушать правил.

Все это гарант того, что ваш проект будет на хорошем счету у роботов. А это, в свою очередь, будет иметь материальное значение. Ваши статьи будут выше в выдаче, дохода будет больше.

Некоторым новичкам бывает очень сложно разобраться со всеми тонкостями SEO-оптимизации. Очень много разной информации и не всегда она правильная. Если вы один из таких новичков, то я рекомендую вам пройти курс Василия Блинова “Как создать сайт”.

Из материалов с этого курса вы сможете узнать о том, как создать собственный информационный проект под монетизацию. Там рассмотрены наиболее важные нюансы, которые должен учитывать каждый вебмастер.

Как ускорить индексацию сайта: 7+3 действенных способа

Каждый 5-й вопрос в нашу службу поддержки по теории и практике поискового продвижения связан с проблемой медленной индексации нового сайта или новых страниц на сайте. Часто слышим такие жалобы, что сайт создан, открыт для поисковых роботов, но проходит день-два, неделя-две, а поисковики никак не желают принимать сайт в свою базу или не хотят показывать вашу новую статью в своей выдаче.

В этой статье вы узнаете об основных способах попадания вашего сайта в индексную базу поисковых систем, а также бонусом – про хорошие методы скорейшего попадания ваших новых статей в выдачу. Итак, начнем.

Что такое индексация? Это процесс изучения вашего сайта роботами поисковых систем, вследствие которого роботы добавляют информацию о нем в свою поисковую базу. Если ваш сайт проиндексирован, значит, он может участвовать в поисковой выдаче.

Действенными способами ускорения индексации нового сайта считаются:

  1. Добавление сайта в поисковики.
  2. Настройка файла robots.txt и создание XML-карты сайта.
  3. Настройка вебмастеров поисковых систем.
  4. Правильная настройка HTML-карты сайта.
  5. Внутренняя перелинковка.
  6. Регистрация сайта в каталогах, справочниках и рейтингах.
  7. Интеграция сайта с социальными сетями.

Теперь о каждом пункте подробнее.

1. Добавление сайта в поисковики

Все этапы будем рассматривать на основных поисковых системах, в индекс которых нужно стараться попасть в первую очередь. Как вы уже догадались, это Яндекс и Google. Под добавлением в поисковую систему подразумевается сообщение поисковым системам о том, что появился новый сайт или новая страница. Среди вебмастеров часто используется слово «аддурилки».


У Яндекса страница добавления в поисковик выглядит следующим образом:

Задача проста. Вводим адрес нового сайта, заполняем поле проверки «Робот-не робот» и нажимаем «Добавить».

Вводим адрес сайта или новой страницы, жмем «Я не робот» и нажимаем «Отправить запрос».

Примечание: данная система работает только в том случае, если вы авторизованы в системе Google.

2. Настройка файла robots.txt и создание XML-карты сайта

Нет смысла расписывать, как правильно настраивать эти два параметра, поскольку для каждого из них в нашем блоге уже есть своя статья. О том, как настроить файл robots.txt читайте здесь, а про XML-карту сайта здесь.

3. Настройка вебмастеров поисковых систем

Начнем с Яндекса. Для начала необходимо авторизоваться в системе Яндекс или, если у вас ещё нет такой учётной записи, завести её. После того как авторизовались в Яндекс, идём по ссылке и нажимаем «Добавить сайт».

Перед нами появляется такая страница:

Шаг 1. Вводим адрес сайта и нажимаем «Добавить сайт».

Шаг 2. Необходимо подтвердить права на владение сайтом. Для этого есть несколько способов, которые подробно описаны на этом этапе, поэтому проблем у вас не возникнет.

Шаг 3. Смотрим общую информацию о сайте.

Теперь сайт добавлен в панель вебмастера Яндекс, и уже точно начался процесс индексации поисковыми роботами.

В Google процесс аналогичный. Авторизуемся в системе и проходим по ссылке. Далее жмем «Добавить ресурс» и вводим адрес сайта во всплывающем окне, нажимаем «Продолжить».

Далее выбираем способ подтверждения прав на сайт и следуем инструкциям от Google.

Также в вебмастере Google есть очень полезная функция для быстрой индексации сайта. Для того чтобы воспользоваться этой функцией, в списке сайтов выбираем необходимый, далее в левом меню заходим в «Сканирование» → «Просмотреть как Googlebot».

С подробной инструкцией по использованию этой функции вы можете ознакомиться в поддержке Google.

4. Правильная настройка HTML-карты сайта

Эта тема также широко раскрыта в предыдущих статьях нашего блога. О том, как правильно настраивать HTML-карту сайта, можете почитать здесь.

5. Внутренняя перелинковка

Одним из самых важных пунктов не только для лучшей индексации, но и для продвижения сайта, является грамотная внутренняя перелинковка сайта. Вот несколько советов, как сделать естественную перелинковку, которая будет полезна не только для оптимизации, но и для удобства пользователей:

В карточках товара добавьте разделы типа «С этим товаром ищут» или «Возможно, вам также будут интересны». К примеру, вот так:

В информационных статьях ставьте анкорные ссылки на карточки товаров или страницы услуг, о которых идет речь. Например, так:

В конце каждой информационной статьи давайте ссылки на 3-4 другие статьи по схожим темам. Например, как в нашем блоге:

Желательно, чтобы на каждой странице сайта было по 2-3 ссылки на главную страницу. Можно дублировать главное меню внизу страницы, сделать вспомогательные ссылки с внутренних страниц на главные разделы сайта.

6. Регистрация сайта в каталогах, справочниках и рейтингах

Регистрируйтесь в каталогах сайтов и статей. Внешние ссылки на ваш сайт позволят поисковым систем быстрее узнать о вашем сайте. Также с помощью внешних ссылок можно не только ускорить индексацию, но и сделать её более глубокой, если эти ссылки будут вести на внутренние страницы сайта.

Подайте заявку в основные каталоги поисковых систем, такие как Яндекс.Каталог и DMOZ.

Также ускорению индексации способствует и добавление сайта в популярные рейтинги, например, Рамблер ТОП100, ТОП Mail.ru, LiveInternet.

7. Интеграция сайта с социальными сетями

Настройте интеграцию сайта с вашими аккаунтами в социальных сетях. Например, делайте анонсы новых статей со ссылкой на полную версию на Google+, ВК, Facebook и Twitter. Аккаунт Google+ можно прикрепить к самому сайту, то есть сделать отдельную учётную запись специально для конкретного сайта.

Из всех социальных сетей стоит выделить Twitter. Это, пожалуй, самая эффективная социальная сеть в плане ускорения индексации страниц вашего сайта.

Вместо десерта

Как и обещали, в виде бонуса несколько способов скорейшего попадания новых страниц вашего сайта в индекс поисковых систем:

  1. RSS-трансляция материалов. Настройте RSS-трансляцию новых материалов вашего сайта и разместите её в различных RSS-каталогах.
  2. Социальные новости. Размещайте ваши статьи в сервисах социальных новостей.
  3. Платное размещение своих статей на сайтах такой же тематики, как у вас. Такие сайты можно найти на различных форумах, которые на этом специализируются, например, SearchEngines.

Проблемы с индексацией сайта и способы их решения

Проблемы с индексацией – головная боль для всех специалистов по продвижению сайтов. Не в индексе может оказаться значительная часть страниц или весь ресурс целиком. Почему так происходит? Для ответа на этот вопрос нужно проводить анализ сайта, отвечая на ряд стандартных вопросов. Это в большинстве случаев позволит найти причину и исправить проблему. Можно выделить 5 главных факторов, из-за которых страницы не индексируются либо проходят индексацию с трудом:

  • поисковые роботы не знают о сайте или отдельных его страницах;
  • сайт целиком или его часть недоступны для индексирования;
  • ресурс занесен в черный список;
  • есть проблемы в технической части ресурса;
  • определенные части сайта (разделы, страницы) некачественные.

Пройдемся по пунктам и рассмотрим, как решать каждую из перечисленных проблем.

Поисковым роботам ничего не известно о сайте/страницах

Почему такое случается? Есть несколько причин. Например, с момента публикации страниц прошло мало времени. Роботу необходим определенный промежуток времени для того, чтобы зайти на сайт и обнаружить новую ссылку (или чтобы обработать информацию, если вы сами сообщили о новом документе). Если вы видите, что робот заходил на сайт, но страница в индексе так и не появилась – дождитесь апдейта Яндекса. Страницы попадают в основной индекс Яндекса примерно за 35 дней.

У Google это происходит быстрее – нужно всего несколько дней: обычно до семи.

Вторая причина – на сайт или страницу нет ссылок. Если ресурс редко обновляется, робот здесь тоже будет редким гостем. Поэтому, добавляя новую страницу, нужно сделать ссылку на нее с главной страницы или позаботиться о ссылках с авторитетных тематических ресурсов.

Топ-пост этого месяца:  Как продвигать и продавать услуги в Интернете через сайт и соцсети

Сайт или его страницы недоступны для индексирования

Владелец сайта может по ошибке закрыть доступ робота к определенным разделам или страницам. Перечислим несколько причин, почему часть ресурса может оказаться недоступной для робота.

Первая – домен не делегирован. Это может случиться из-за сторонней жалобы (например, если вы разместили на сайте пиратский контент). Еще вариант – если вновь купленный домен делегирован только новому владельцу.

Вторая причина – закрытый доступ к страницам через robots.txt. Это может быть сделано случайно – например, если вы забыли снять директиву Disallow после разработки и тестирования нового ресурса. Также доступ может быть закрыт через IP из-за его попадания в черный список, но это случается весьма нечасто.

Также поисковики некачественно индексируют сайты с flash или ajax-элементами. Посмотреть, индексируются ли эти элементы, можно через панель вебмастеров Google (функция «Посмотреть как Googlebot»).

Еще один фактор недоступности страниц – noindex

Причем, он может не закрывать новые страницы, но в избытке находиться на сайте, из-за чего робот «не видит» нового контента.

Сайт занесен в черный список

Одна из причин – санкции поисковых систем. Вы можете даже не знать об этом (например, если покупаете домен). Причинами для наложения санкций служат:

  • использование агрессивных методов продвижения;
  • отсутствие ценности для пользователей (сайт создан только для продвижения, например, с целью рекламы);
  • сайт является копией (аффилиатом);
  • у домена негативная история.

В зависимости от причины попадания в черный список нужно выстраивать стратегию по выводу из него, но лучше всего туда не попадать – и проверять домены перед покупкой.

Распространение вирусов через сайт – еще одна причина попадания под санкции. Причем, это может быть не по вашей вине: сайт могут сломать и распространять через него вредоносный код. Обнаружив это, поисковый робот прекращает индексацию до тех пор, пока доверие к ресурсу не будет возвращено. Следует регулярно проводить мониторинг ресурса, чтобы не допускать подобных ситуаций.

Технические ошибки

Очень часто причиной проблемной индексации служит банальная техническая ошибка. Устраните ее – и индексация будет налажена. Среди распространенных технических ошибок выделим четыре.

Первая — некорректный http-заголовок. У страниц, которые должны попадать в индекс, код ответа должен быть 200. Можно проверять это различными плагинами, но куда проще посещать панель вебмастеров – если робот обнаружит ошибку, он об этом сообщит.

Обзор сервиса для ускорения индексации страниц GetBot.guru

Как проверить проиндексированность страниц и ускорить этот процесс, чтоб не потерять трафик? Об этом я расскажу вам в своем сегодняшнем обзоре.

Попала ли конкретная страница в поисковый индекс Гугла или Яндекса можно проверить несколькими способами.

  • Первый, и наверняка самый удобный, — это проверить страницу с помощью специального плагина RDS bar. Весьма полезный инструмент для анализа различных показателей сайта.
  • Второй способ — проверить проиндексированность страницы – узнать это у самой поисковой системы. Например, можно вбить в Гугле следующий запрос: info:http://your-site.com. Или для Яндекса: url:www.your-site.com | url: your-site.com. Где вместо http://your-site.com вы конечно указываете страницу своего сайта.

А если нужно проверить сразу много страниц, то можно воспользоваться бесплатной программой YCCY. Работает она очень просто, так что сами сможете разобраться ��

Ну вот проверили вы страницы, и оказалось что некоторые из них не проиндексированы. Что же делать?

Можно воспользоваться сервисами для ускорения индексации, например, таким как getbot.guru. Он, конечно, платный, но цены там невысокие. Оплата взымается за каждую страницу отдельно, а в зависимости от выбранного тарифа деньги могут быть возвращены, в случае неудачи. Это справедливо, как мне кажется.

Давайте теперь чуть подробнее разберемся с этим сервисом.

Существует несколько тарифов:

Как видите, с помощью данного сервиса можно также проверить страницы на индекс. Но я, если честно, не вижу смысла платить за то, что можно проверить бесплатными способами.

Для начала, конечно же, нужно зарегистрироваться. Затем пополняете баланс: тут есть несколько вариантов пополнения – все зависит, сколько у вас страниц для проверки. И, конечно же, есть разные способы оплаты.

После этого нужно создать проект. Сделать это очень легко. Заходите в раздел «Проекты» и нажимаете «Создать».

Поля «Название» и «Описание» заполняются исключительно для вашего удобства, чтоб потом (когда у вас будет много проектов) вам лучше было разбираться — где какие ссылки вы запускали.

Ну а в поле «Ссылки» добавляете урлы ваших непроиндексированных страниц — каждая ссылка с новой строки.

Затем остается важный, но довольно сложный момент – нужно выбрать тариф.

Слева можно увидеть с какими тарифами в данной момент запущены проекты. Учтите это! Ведь если выберете тариф, в котором сейчас выполняется больше всего проектов, то и ждать вам придется дольше (пока дойдет очередь хотя бы до запуска выполнения вашего проекта).


Вы можете протестировать: создать несколько проектов, добавить по одной ссылке и выбрать разные тарифы. Затем посмотрите, какой из них лучше сработал. Именно так я и сделала. И скажу вам честно, не сильно меня впечатлили результаты – приходилось ждать от 7 до 14 дней. А по итогу, даже не везде оказался положительный результат.

После того как выбрали тариф — сохраняете проект. Но для того чтобы он запустился необходимо еще нажать кнопку «Старт». Также есть возможность удалить проект, прежде чем он заработал.

После запуска проекта вам остается только ждать. Состояние обработки проекта автоматически меняется. Так что когда он будет выполнен — вы увидите.

Недостатки сервиса:

  • Работает он только с поисковой системой Яндекс.
  • Время попадания страницы в индекс от 10 минут до 10-14 дней – на практике же, у меня страница меньше чем через 7 дней в индекс не попадала. А большинство проектов вообще выполнялось более двух недель.
  • Далеко не всегда сервис вообще срабатывает. Разработчики объясняют это тем, что все зависит также от сайта, на котором находится страница.

Я протестировала сервис на разных проектах и с разными пакетами. Так что могу сделать вывод, что не всегда это помогает ускорить индексацию. Все конечно индивидуально, может для ваших проектов он будет более эффективен. Но, я пожалуй, больше использовать его не стала бы.

Опасность медленной индексации. Ускоряем отправку новых страниц в индекс

Приветствую, друзья. Сегодня важная статья: я поделюсь информацией о том как ускорить индексацию новых страниц сайта и покажу какие инструменты использую. Особое внимание следует обратить блогерам-новичкам.

Те, кто только начал вести блог уже столкнулись с такой проблемой. Вы пишите новые статьи, публикуете, а трафика все нет и нет. Проверяете, проиндексировали ли поисковики Яндекс и Google новые посты, и выясняете — нет. Вроде уже неделя, 2 недели или, даже, месяц прошел, а индексации не произошло.

Какие проблемы это несет? Самая опасная — ваш контент могут скопировать прокачанные блоги и авторство вашей прекрасной статьи, над которой вы трудились, достанется им. Поисковик еще может принять ваш сайт за плагиатора.

Вторая проблема не такая критичная, но, тоже, малоприятная — долгое ожидание трафика. Вроде 50 статей уже есть, а посетителей нет.

Но ладно, если у вас молодой блог (2-4 месяца), но что делать тем, кто ведет блог год и больше, а трудности с быстрой индексацией остались? В первую очередь, не отчаиваться. А, во-вторую, читать мой алгоритм ускорения индексации ниже.

Оригинальные тексты Яндекс

Пункт номер 0. В среде блогеров и сеошников ходят разные слухи: кто-то говорит что толку от этого инструмента нет, кто-то доказывает обратное. Пока точного ответа никто не дал, я советую не пренебрегать данной фишкой и добавить текст новой статьи сюда.

Внимание! Добавлять текст нужно до публикации на вашем блоге. Если текст уже проиндексирован Яндексом — добавлять его не следует, иначе он примет его за плагиат.

Находится этот инструмент по этой ссылке . Доступно для тех, кто подтвердил права на сайт в ЯндексВебмастере. (Кто до сих пор не сделал это — бегом сюда) Выбираете свой сайт и на следующей странице добавляете текст.

После этого можете публиковать материал на блоге.

Аддурилки Яндекс и Google

Этот пункт дает наибольший эффект. В Google индексация новой страницы происходит мгновенно!

Как только опубликовали статью, добавляем url в аддурилки:

  • Для Яндекса: webmaster.yandex.ru/addurl.xml
  • Для Google: google.com/webmasters/tools/submit-url

Алгоритмы отечественного поисковика работают медленнее, именно на этом блоге страницы заходят в индекс через 1-2 дня. Без этого действия было бы дольше.

Социальные сети

Что я делаю дальше? Правильно, публикую анонсы в социальных сетях, а именно:

  • Вконтакте;
  • Facebook;
  • Google+;
  • Twitter;
  • Одноклассники (тестирую);
  • Мой мир (тестирую);

Набор соц. сетей зависит от контента, которым вы делитесь. Если у вас присутствуют качественные фотографии, можно добавить Instagram, Pinterest и Tumblr. Для видео — Youtube и Vimeo. Для портфолио — Behance и Coroflot.

Еще лучше будет, если у вас есть группа вашего блога. Делаем анонс в группе и репостим к себе на стену. Если группа состоит не из ботов, а живых людей — вы получите переходы, что только увеличит скорость индексации новой страницы.

Как еще усилить влияние соц. сетей на индексацию? Можно закупить соц. сигналы:

  • Репосты, ретвиты, лайки вашей записи;
  • Отдельные посты у других людей.

Для этих задач я использую Форумок и Webartex . Чаще заказываю твиты (7-9 шт.) и лайки в вк(5-10). Цена на форумке от 2,5 руб, в WebArtext подороже. В Google Plus лайки получаю методом обмена: ставлю другим блогерам — они мне в ответ. Уже сформировал список из тех, кто отвечает взаимностью. Добавляйте меня в круги, коллеги: мои соц. сети в сайдбаре справа есть.

Действия которые влияют на скорость индексации

Помимо описанных выше активных средств, которые задействуем сразу и разово, есть пассивные. Они зависят от продолжительно воздействия.

  1. Чаще публикуйте новые материалы;
  2. Соблюдайте регулярность — поисковый робот любит, когда новые статьи появляются через равные промежутки времени и посещает такие блоги активнее;
  3. Создайте карту сайта для роботов;
  4. Перелинковка — ставьте внутренние ссылки на другие статьи;

Наверняка, вы заметили, что с нового года я регулярно публикую статьи (минимум 1 в неделю, иногда чаще). В итоге, Google индексирует новый материал за 2 минуты.

Алгоритм по ускорению индексации

Подведу итоговую последовательность действий:

  1. Перед публикацией добавляем статью в «Оригинальные тексты Яндекса»;
  2. Аддурилки поисковых сетей;
  3. Репосты в свои профили соц. сетей;
  4. Усиление соц. сигналов.

Уверен, что эта информация поможет вам ускорить индексацию новых страниц. Буду рад репосту этой статьи, ведь не зря я старался, ребята) Удачи!

Две профессии по цене одной! Только до 15 августа выберите первую профессию , а вторую, бесплатную, можно выбрать до конца ноября.

Лучшее вложение денег — инвестиция в свои знания.

Поздравляю! Вы в шаге от сумасшедшей информации: проверьте вашу почту и подтвердите подписку.

Ускорение индексации страниц сайта с помощью GETBOT.GURU не работает

Есть сайт.
СДЛ.
Тексты уникальные.
Публикуются регулярно.
Сайт не под фильтрами.
Индексируется хорошо, но медленно.
Решил ускорить.
Обратил свой взор в сторону одного из многочисленных сервисов, которые предлагают эту услугу.

Привожу только факты. Для наглядности свой эксперимент разделил на три части.

Часть первая

Зарегистрировался на проекте GETBOT.GURU

Добавил страницы сайта.

Выбрал тариф «АБСОЛЮТ».

На выходе – ни одна страница не проиндексировалась.

Несколько раз повторил процесс добавления страниц, выбора тарифа и запуск проекта в работу.

По-прежнему ни одна страница не проиндексировалась.

Написал в техническую поддержку: «Запускаю много URL-ов в работу. На выходе 0 проиндексированных. Вы уверены, что у Вас все работает?»

Получил ответ «доброго, уверены, тестируем каждый день, при поломках сообщаем. В индекс быстробота попадают только новые страницы, о которых ещё не знает бот яндекса, вы же пытаетесь проиндексировать старые выпавшие страницы, такие страницы никогда в индекс быстробота не войдут».

Хотел поспорить, но не стал.

Часть вторая

Добавил только новые страницы сайта.

Выбрал тариф «АБСОЛЮТ».

На выходе – ни одна страница не проиндексировалась.

Несколько раз повторил процесс добавления новых страниц, выбора тарифа и запуск проекта в работу.

По-прежнему ни одна страница не проиндексировалась.

Часть третья

Добавил в сервис RSS канал сайта, что бы в работу поступали все новые страницы сайта.

Выбрал тариф «АБСОЛЮТ».

На выходе – ни одна страница не проиндексировалась.

Несколько дней подряд наблюдал, как в работу поступают все новые страницы сайта и на выходе ноль проиндексированных.

Как теперь ускорять индексацию ссылок?

Тут мы бы советовали придерживаться предложенных ниже принципов и тогда заметных трудностей со скоростью индексации закупаемой ссылочной массы, быть не должно:

Обязательно проверять дату кэша документа в Яндексе. В случае контроля текущей даты кэша в индексе, можно отклонить большое число редкообновляемых документов. Методика отлично работает. Пороги, на которые можно ориентироваться: менее 25 дней (для быстрой индексации), менее 45 дней (для обычной закупки). Доноры, дата кэша которых оказывается старше 45 дней от текущей — просто отправляйте в BL.

Привлечение сервиса http://indexgator.com/. В целом, это «прародитель» сервисов следующего поколения, упомянутых выше. На наш взгляд, сейчас работает получше их.

Развитие собственных инструментов. Если объемы большие, то можно думать и о развитии собственных инструментов. На наш взгляд, скоро будут появляться сервисы, которые будут ускорять переиндексацию документов с помощью привлечения пользователей с Яндекс.Браузером и/или Яндекс.Элементами. А также с привлечением сетки пользователей в FaceBook.

Очевидно, что разработчики Яндекса не планируют тут мериться с массовым паразитированием на их индексаторе. Скорее всего, небольшие частные сервисы, разработанные по схожим принципами, что и упомянутые выше — будут вполне успешно работать и показывать лучший результат.

Удачи в разработке стабильной и работающей методики быстрой индексации доноров и самостоятельном продвижении сайтов!

Добавить комментарий