Как сделать семантический анализ текста + пример SEO анализа


Содержание материала:

Эффективный семантический анализ текста. Полное руководство

Семантика — наука, которая изучает связи слов в тексте между собой и общую его смысловую нагрузку. Исходя из этого, семантический анализ — это анализ основных статистических показателей текста, на основе которых определяется качество статьи и перспектива ее восприятия поисковой системой. От того, насколько качественно проведен такой анализ, зависит место текста в поисковой выдаче и попадет ли он вообще туда. Зачастую, с точки зрения семантики и полезности для пользователя, именно качественно построенной статьи достаточно, чтобы выйти в ТОП по нужным запросам поисковых систем.

В этой статье мы обговорим, из каких параметров состоит семантика текста, и как правильно ее проанализировать, чтобы довести статью до идеала.

Сервисы для семантического анализа

Чтобы получить все нужные параметры текста, нужно воспользоваться сторонними сервисами. Их представлено достаточно много, но все они работают по одним алгоритмам, поэтому результаты будут крайне похожи. Из основных сервисов, которые можно порекомендовать, будут advego.ru/text/seo, istio.com, text.ru. Работать и приводить примеры мы будем именно из сервиса advego.

Параметры анализа

Чтобы проверить текст, необходимо скопировать его в соответствующее окно и запустить проверку. Мы получим таблицу с данными, на основе которых и будем проводить анализ и вносить необходимые правки.

Разберем по блокам ту информацию, которую получаем из сервиса.

Размеры текста в символах и словах для нас не имеют особого значения. Здесь важно понимать, что статья должна быть такого размера, чтобы полностью ответить на ключевой запрос пользователя. Нас интересуют все параметры от «вода» включительно и далее.

Вода — процентный показатель количества слов, которые не относятся к теме текста. То есть не имеют для его содержания никакого значения. Абсолютно «сухой» текст не будет удобен для чтения пользователем. Слишком водный будет считаться поисковыми системами, как малоинформативный. Поэтому нужно придерживаться золотой середины. В каждой тематике эта середина будет своя. В тексте о путешествиях водность в 70% будет нормой, в то время как в статье о программировании 30% уже будет много. Обычно, если вода более 70%, то стоит уменьшать ее всеми доступными способами.

Классическая тошнота документа определяет вхождение самого частого слова в отношении всего текста. Слишком высокая тошнота будет считаться поисковой системой как переспам по ключевому слову, и может привести к исключению страницы из поиска. Отличной классической тошнотой считается показатель около 4-5%. Уменьшить или увеличить этот процент можно регулировкой вхождения этого самого повторяющегося слова.

Академическая тошнота также, как и параметр классической тошноты, является важной для определения релевантности текста. Она измеряет частоту повторения всех слов в тексте. Слишком низкий процент определяется ПС как «текст не о чем», то есть не релевантный. Слишком высокий — переспамом. Чтобы понимать, как отрегулировать тошноту в нужных нам пределах, перейдем ко второму блоку.

Второй блок показывает частоту вхождения всех слов и фраз в текст. Это и есть его семантическое ядро. Идеальным можно считать такой текст, где главные для продвижения ключевые слова стоят на первых позициях и формируют определяемые фразы. На приведенном выше примере практически идеальное расположение слов (сам текст в примере рассказывает о способах экономии газа в квартире, где есть счетчик).

Процентное вхождение ключевых слов для современных алгоритмов поисковых систем считается отличным, если находится в пределах 2-4%. Этого достаточно для Google и Яндекс и не будет считаться переспамом. У менее популярных ПС несколько другие градации спамности текста, и их нужно учитывать при продвижении под конкретную ПС.

Также важно наличие слов из тематики статьи, которые будут идти по частотности сразу после основных ключей. Это увеличивает релевантность. ПС точно понимают, что содержание текста целиком будет отражать ключевой запрос пользователей.

Третий блок содержит список вхождений всех слов. Используя этот список, можно отрегулировать тошноту, увеличивая или уменьшая количество нужных слов.

В последнем блоке содержится информация обо всех стоп-словах. Стоп-слова — это незначимые слова, которые не учитываются в поисковых запросах и для поисковой системы не имеют никакого значения. Большое их количество ухудшает релевантность, но они играют важную роль в читабельности текста. Здесь также нужно придерживаться золотой середины и исключить те, от которых содержание и удобство чтения не пострадают.

Резюмируя все вышесказанное

Семантический анализ текста проводится для устранения всех ошибок в его оптимизации и создания идеальной с точки зрения ПС страницы.

Придерживаться стоит таких параметров:

  • Вода — 40-70%. Выше для гуманитарных текстов, ниже для технических.
  • Классическая тошнота — до 4-5%.
  • Академическая тошнота — до 9%.
  • Вхождения ключевых слов — в пределах 2-4%.

Семантический анализ текста при помощи Адвего и Excel

По мере увеличения конкуренции сайтов, все чаще приходится задумывать о том, каким образом угодить поисковикам. Профессиональные «сеошники» уже давно говорят и пишут о том, что необходимо проводить семантический анализ текста. При ранжировании сайтов, поисковые системы пытаются «понять», насколько удачно, при помощи слов, удалось дать ответ на поставленный вопрос (запрос пользователя). Как ни крути, но поисковики стараются предоставить пользователю самую полную (наиболее релевантную) информацию исходя из его запроса.

Анализировать тексты приходится не только роботам, но и людям в повседневной жизни. На ум пришел пример из школьной жизни. В классе 10 человек и все они написали сочинение на тему «Моя малая Родина». Все десять человек являются круглыми отличниками и работа всех учеников была оценена учителем на оценку «пять». Все ученики рассказали о замечательной реке, о вековом дубе, о березовой роще. В принципе, ничего не забыли, да еще расписали в ярких красках без лишней «воды». Теперь представим, что учителя попросили составить рейтинг сочинений, т.е. ТОП от 1 до 10. Как вы понимаете, тут должен использовать принцип поисковиков — на одной позиции не могут находиться одновременно два сайта (сочинения). При таком задании, учителю придется провести очень тщательный анализ текста, чтобы выявить фаворитов и аутсайдеров. При построение ТОПа, и Яндекс и Google проводят семантический анализ текстов, хотя делают это, явно по разному. Как бы то ни было, не помешает провести сравнение своих текстов с текстами конкурентов из ТОПов.

Семантический анализ текста on-line, можно провести при помощи сервиса сайта advego.ru, который называется Семантический анализ текста онлайн, seo-анализ текста. В качестве примера, я возьму текст статьи, которая находится на втором месте в выдаче Яндекса по запросу «Семантический анализ текста» (на первом месте находится сервис Advego).

Вставляем текст и жмем «Проверить»

На выходе получаем:

  • Статистику текста (кол-во символов, кол-во слов, классическую тошноту и т.д);
  • Семантическое ядро, включающее в себя как словосочетания, так и отдельные слова;
  • Слова (отдельные слова из семантического ядра несущие смысловую нагрузку);
  • Стоп-слова (слова, не несущие самостоятельной смысловой нагрузки).

Общая статистика текста Семантическое ядро включает как отдельные слова, так и словосочетания (без стоп-слов) Отдельные слова составляющие семантическое ядро (без стоп-слов) Стоп-слова. Список слов не несущих самостоятельной смысловой нагрузки

В качестве эксперимента, проведу семантический анализ уже написанного выше текста, чтобы прикинуть, какие слова добавить, чтобы приблизиться к параметрам статьи из ТОПа. Далее можно сравнить семантические ядра текстов при помощи Excel.

В конкретном случае, использовал Excel 2007. Выделил столбы со списками слов, далее Условное форматирование > Правила форматирования ячеек > Повторяющиеся значения . Повторяющиеся значения выделены на рисунке зеленым цветом.

Сравнение семантических ядер текстов в Excel

Красным выделил те слова, которые, по моему мнению, следует добавить в мой текст:

  • ключевой;
  • контент;
  • поисковые системы;
  • тошнота;
  • продвижение;
  • результаты анализа;
  • on-line сервисы.

Семантический анализ текстов конкурентов весьма полезно проводить перед написанием статей для своего сайта. Список слов, которые чаще всего встречаются у конкурентов (корпус документа), должен быть перед глазами у копирайтера. Именно на этот список необходимо ориентироваться при написании статьи. Сразу оговорюсь, что не следует отправлять копирайтеру слишком большой перечень, достаточно 15-20 слов.

Как сделать семантический анализ текста?

Проведение семантического анализа текста позволяет сделать текст таким, чтобы он попадал в первые строки поисковиков. Как правильно создать статью и в разы повысить эффективность материала, а также сделать анализ семантики текста, который создается для продвижения сайта , расскажем в этой статье.

Что представляет собой семантика?

Есть некоторые особенности ранжирования, которые помогают авторам при создании статей, хорошо адаптированных к поисковым системам. В чем заключаются эти особенности и как сделать статьи хорошо ранжированными, чтобы они находились в первых строках поисковиков?

Искусством правильно и точно формулировать мысли, высказанные вслух, занимается семантика. Она непосредственно соприкасается с лингвистикой, изучающей язык и его структуру.

Кажется странным, но длительное время занятие семантикой было прерогативой психиатров, а не филологов, которые искали связь между заболеваниями психического характера и навыками правильного выражения мыслей вслух.

И если человеку не удавалось ясно и четко выражать свои мысли, которые должны были объяснять поступки и действия, его признавали психически нездоровым, так как его речь была лишена смысла.

Через некоторое время лингвисты начали применять семантический анализ, чтобы проверять рукописи. Это помогало читателям понять смысл книг.

В эпоху информационного бума и процветания интернета SEO-анализ текстов помогает продвигать сайты и доносить необходимую информацию пользователям интернета. Оптимизированные сервисы проводят анализ текста, решая сложные математические задачи.

В чем заключается SEO-анализ текста

Для успешного продвижения сайта, который должен приносить прибыль , подготавливается презентация, состоящая из SEO-текста. Это статья с указанием ключевых слов. Такие тексты помогают во время поиска на поисковых страницах продвигать сайт на первые строки, и чем удачнее будут подобраны ключевые слова и чем точнее будет раскрыт их смысл, тем большее число просмотров будет у сайта.

Видеоурок о заработке в Интернете

Для проверки копирайтером своей работы на правильное вписывание ключевиков на платформе Адвего осуществляется SEO (семантический) анализ готового текста. Он проверяется онлайн: вы просто копируете текст в определенное окошко на сайте и запускаете проверку. Она осуществляется практически мгновенно, после чего выдаются все проверяемые параметры с указанием точного количества ключевых фраз и слов.

Заработок для копирайтеровЗаработок на копирайтинге и переводе текстов ✍️ — заказы на различные тематики для новичков и профи

Тексты должны быть наполнены ключевиками без перегрузки, программа укажет вам в процентах уровни тошноты и воды статьи. Подобные тексты нужны тем, кто создает сайты, и тем, кто занят поиском нужной информации.

Проведение SEO-анализа текста

Введенный на сервисе Aдвего и проверенный текст получает свою статистику.

Заказчик всегда требует от автора определенное количество символов без пробелов. В сервисе Адвего указывается общее количество символов, а также количество знаков без пробелов.

Как начать работу копирайтером?Начните написание статей ✍️ по ТЗ или продавайте свои готовые тексты

Проведем анализ значения каждого из параметров, которые выдает проверка.

  • Уникальными считаются слова, употребленные только один раз на протяжении всего текста.
  • Значимыми словами являются имена существительные – семантическое ядро текста, а глаголы и прилагательные считаются водой.
  • У междометий, предлогов и союзов, не несущих смысловой нагрузки участь быть стоп-словами.
  • Водой называются слова, которые наполняют словами статью и без них она будет меньше, но более бледной и безликой. Эта категория слов определяется математически (деление всего количества значимых слов на весь объем текста).
  • Классической тошнотой называют ту же воду, также определяемую математически (корень квадратный из всех часто повторяемых слов).
  • Академическую тошноту вычисляют пропорцией к количеству повторений слов. Нужно обратить внимание, что этот параметр не должен быть по Адвего выше 9-10%. Потому что в противном случае текст в поисковике будет восприниматься переспамленым.
  • Частота слов по Адвего не должна превышать 3%. Если слово употреблено только один лишний раз – в поисковике статья будет определена, как спамная.

Как только текст будет написан, ее нужно проверить по Адвего не только на грамматику, орфографию, но и сделать анализ на процент воды и тошноты, как классической, так и академической. Проценты должны быть как можно меньше. Но учтите, что тексты, в которых воды нет, практически отсутствуют в сети.

Предприниматель, инвестор
Сооснователь 6 компаний
Автор блога с аудиторией свыше 400 000 человек

Как поисковые системы нас понимают. Семантический анализ текста

Результаты семантического анализа могут применяться для решения задач в таких областях как психиатрия, политология, торговля, филология, поисковые системы, системы автоматического перевода и т.д.

Несмотря на свою востребованность практически во всех областях жизни человека, семантический анализ является одной из сложнейших математических задач. Вся сложность заключается в том, чтобы «научить» компьютер правильно трактовать образы, которые пытается передать автор текста.

В этой статье мы разберем, как поисковые системы извлекают из запроса его семантическое значение, метод TF-IDF и закон Ципфа. В первой части статьи вы можете узнать про основной способ обработки языка Bag-of-words, как поисковая система понимает отдельные слова и предложения и находит соответствующий документ. Читайте и становитесь настоящим гуру поисковой оптимизации.

TF-IDF и закон Ципфа

Проверка по закону Ципфа — это метод распределения частоты слов естественного языка: если все слова языка (или просто достаточно длинного текста) упорядочить по убыванию частоты их использования, то частота n-го слова в таком списке окажется приблизительно обратно пропорциональной его порядковому номеру n (так называемому рангу этого слова). Например, второе по используемости слово встречается примерно в два раза реже, чем первое, третье — в три раза реже, чем первое, и так далее. Наиболее часто используемые 18% слов (приблизительно) составляют более 80% объема всего текста.

Самые популярные слова будут отображаться в большинстве документов. В результате такие слова усложняют подбор текстов, представленных с помощью модели мешка слов. Кроме того, самые популярные слова часто являются функциональными словами без смыслового значения. Они не несут в себе смысл текста.

Мы можем применить статистическую меру TF-IDF (частота слова — обратная частота документа), чтобы уменьшить вес слов, которые часто используются в тексте и не несут в себе смысловой нагрузки. Показатель TF-IDF рассчитывается по следующей формуле:

  1. tfi,j — частота слова в тексте
  2. dfj — количество документов, содержащих текст с данным словом
  3. N — общее количество документов

В таблице ниже приведены значения IDF для некоторых слов в пьесах Шекспира, начиная от самых информативных слов, которые встречаются только в одной пьесе (например, «Ромео»), до тех, которые настолько распространены, что они полностью не дискриминационные, поскольку встречаются во всех 37 пьесах. Такие как «хороший» или «сладкий».IDF самых распространенных слов равен 0, в результате их частоты в модели мешка слов также будут равны 0. Частоты редких слов будут наоборот увеличены.

Что нужно знать SEO-специалисту
  1. Маловероятно, что модель мешка слов используется в настоящее время в коммерческих поисковых системах. Существуют модели, которые лучше отражают структуру текста и учитывают больше лингвистических особенностей, но основная идея остается неизменной. Документы и поисковые запросы преобразуются в векторы, а сходство или расстояние между векторами используется в качестве меры релевантности.
  2. Эта модель дает понимание, как работает лексический поиск в отличии от семантического поиска. Для лексического поиска важно, чтобы документ содержал слова, упомянутые в поисковом запросе. Для семантического поиска это пока необязательно.
  3. Закон Ципфа показывает, что в тексте, написанном на естественном языке, существуют предсказуемые пропорции. Отклонения от типичных пропорций легко выявить. Таким образом не сложно определить чрезмерно оптимизированный текст, который является «неестественным».
  4. Благодаря применению TF-IDF, документы, содержащие в себе ключевые слова, приобретают больший вес в векторе поиска. Очень заманчиво интерпретировать это явление как нечто, связанное с «семантикой».

Семантические слова

Семантический поиск стал ключевым словом в SEO сообществе с 2013 года. Семантический поиск — это поиск со смыслом, в отличие от лексического поиска, где поисковая система ищет буквальные совпадения слов или вариантов запроса, не понимая общего значения запроса.

Приведем простой пример. Вводим запрос в Яндекс или Google — пьяный на новый год перепутал квартиру фильм. Результаты выдачи можете увидеть на фото.

Вы же сразу поняли, о каком фильме идет речь? Как мы видим, поисковая система отлично справилась с задачей. Несмотря на то, что в нашем запросе нет слов ирония / судьба / с легким паром в выдаче мы видим «Иронию судьбы».

Но как поисковая система может понять значение слова или смысл поискового запроса? Или как мы должны указать значение слова, чтобы компьютерная программа могла понять и практически использовать его в выдаче документов?Ключевой концепцией, которая помогает ответить на эти вопросы, является дистрибутивный анализ. Она была впервые сформулирована еще в 1950-х годах. Лингвисты заметили, что слова с похожим значением имеют тенденцию встречаться в одной и той же среде (то есть рядом с одними и теми же словами), причем количество различий в значении между двумя словами примерно соответствует разнице в их LSI-фразе.

Вот простой пример. Допустим, вы сталкиваетесь со следующими предложениями, при этом не зная, что такое лангустин :

  1. Лангустины считаются деликатесом.
  2. У лангустинов белое мясо в хвосте и на теле, сочное, слегка сладкое и постное.
  3. При выборе лангустинов мы обращаем внимание на полупрозрачный оранжевый цвет.

Также вы определенно сталкиваетесь со следующим, так как большинство читателей знают, что такое креветка:

  1. Креветки — это лакомство, которое хорошо сочетается с белым вином и соусом.
  2. Нежное мясо креветки можно добавить к пасте.
  3. При варке креветки меняют свой цвет на красный.

Тот факт, что лангустин встречается с такими словами, как деликатес, мясо и макароны, может указывать на то, что он является своего рода съедобным ракообразным, в чем-то похожим на креветок. Таким образом, можно определить слово по среде, в которой оно встречается и по множеству контекстов.

Как мы можем преобразовать эти наблюдения в нечто значимое для компьютерной программы? Можно построить модель, похожую на мешок слов. Однако вместо документов мы обозначим столбцы с помощью слов. Достаточно распространено использование небольших фраз в контексте целевого слова, но не более четырех слов. В этом случае каждая ячейка в модели обозначает количество, сколько раз слово встречается в контекстной фразе (например, плюс-минус четыре слова). Давайте рассмотрим эти контекстные фразы. В таблице ниже пример из книги Даниэля Джурафски и Джеймса Мартина «Обработка речи и языка».

Для каждого слова в соседних колонках мы указываем тематические слова из текста, где оно используется. В результате получаем матрицу совпадения слов. Обратите внимание, что «цифровые» и «информационные» контекстные слова больше похожи друг на друга, чем на «абрикосовые». Количество слов может быть заменено другими показателями. Например, показатель взаимной информации.

Каждое слово и его семантическое значение представлены вектором. Семантические свойства каждого слова определяются его соседями, то есть типичными контекстами, в которых оно встречается. Такая модель может легко уловить синонимию и родственность слов. Векторы двух одинаковых слов будут проходить рядом. Векторы слов, которые появляются в одном и том же тематическом поле, будут образовывать кластеры.

В семантическом поиске нет магии. Концептуальное различие заключается в том, что слова представляются в виде векторных вложений, а не лексических элементов.

Что нужно знать SEO-специалисту
  1. Семантические модели хорошо подходят для охвата синонимов, связанных слов и семантических фреймов. Система связанных фреймов может образовывать семантическую сеть. Семантическая сеть — это набор слов, которые обозначают объекты предметной области и задают отношения между ними. Например, семантическая сеть чая «Золотая чаша» может включать в себя традицию, чай, чашку, чайник, ложку, сахар, напиток и т.д.При создании нового контента будет полезно подумать о семантических фреймах. Т.е. учитывать семантическую структуру, по которой вы хотите продвигать вашу страницу в топ, а не конкретное ключевое слово.
  2. Игра с контентом, скорее всего, мало что даст. Синонимичные слова, такие как квартира и апартаменты, будут иметь очень похожие векторы. При замене слов в тексте на слова синонимы мы получим текст, который будет близок к исходному варианту с точки зрения поисковой системы.
  3. Поисковые системы стали гораздо лучше находить нужную информацию, но не будет лишним давать им подсказки, используя структурированную разметку данных.

Компьютерная лингвистика — это увлекательная и быстро развивающаяся наука. Концепции, представленные в этой статье, не новы и не революционны. Однако они довольно просты и помогают получить общее представление о проблемном поле.

Вопросы, предложения и критика приветствуются в комментариях.

Еще больше интересных фактов про SEO читайте в VK или FB.

Все, что нужно знать о SEO-анализе текстов в 2020 году

100% уникальность, вода до 30%, N вхождений «ХХХ москва недорого», 10 баллов по «Главреду» и 0 по «Тургеневу» — такое ТЗ — страшный сон копирайтера.

На дворе 2020 год, а многие заказчики текстов — оптимизаторы, веб-мастера, предприниматели — до сих пор:

  • требуют полную техническую уникальность — лучше и по text.ru, и по Advego, и еще по парочке других сервисов одновременно;
  • заворачивают или отправляют на доработку тексты только из-за пары недостающих процентов заспамленности, водности или еще чего-то такого;
  • считают точные и неточные вхождения ключевых слов и объем текста, ориентируясь на сайты из топ-10 выдачи «Яндекса» или Google по целевому запросу;
  • плюс заставляют подгонять материалы под «Главред», «Тургенев» и, не дай бог, какой-нибудь анализатор по закону Ципфа.

Несмотря на страдания и кучу потраченного времени, так можно получить совершенно бесполезный текст. Он не принесет продаж, конверсий, поведенческих и даже поискового трафика — но будет идеален с точки зрения SEO-анализа.

Пишущий интернет-маркетолог, автор-фрилансер. Помогает развивать и продвигать блоги, делает контент для внешних площадок. Пишет об интернет-маркетинге, реже о финансах и бизнесе.

Что такое SEO-анализ текста и в чем его смысл

SEO-анализ текста — проверка на соответствие требованиям поисковых систем и, как правило, оценка с точки зрения читаемости.

Он призван решать две главных задачи:

Привлекать поисковый трафик

Правильная оптимизация текста должна привести к улучшению ранжирования в «Яндексе»/Google и увеличению поискового трафика. И, конечно, SEO-анализ обязан уберечь от попадания под всяческие фильтры типа «Баден-Бадена» 1 .

Поведенческие факторы играют важную роль в SEO. Чтобы не было множества отказов, маленькой глубины просмотра и минимального времени на сайте, нужно качественно отвечать на запрос пользователя. А лишние слова, общие фразы, повторы и тому подобное затрудняют передачу информации.

Алгоритм Яндекса, ухудшающий позиции страниц с переоптимизированными текстами, текстовым спамом.

Обзор основных показателей и инструментов SEO-анализа текста

Уникальность

Показывает непохожесть на другие тексты в интернете, измеряется в процентах. Чем ниже уникальность, тем больше в тексте фрагментов, которые где-то уже встречаются.

Что нужно учитывать при анализе: 100%-ная уникальность не так уж и важна для продвижения, как показывает практика (1, 2). К тому же требование полной уникальности может противоречить здравому смыслу, например, в случае с юридическим текстом, где цитирование закона неизбежно.

В погоне за красивыми цифрами автор может взять чужой текст, переписать своими словами, заменить часть слов синонимами, и вуаля — 100% уникальности. Правда, технической, а не смысловой. Пользы от такой работы не будет.

Водность

Определяется как отношение «незначимых» слов (фразеологизмов, широко распространенных выражений, общих фраз и т.п.) к общему количеству слов в документе. Чем выше процент водности, тем больше в тексте слов, не влияющих на SEO и не несущих особой смысловой нагрузки.

Что нужно учитывать при анализе: стараясь достичь идеальных показателей, можно получить «пересушенный» текст, который никто не захочет читать.

В Главреде (инструмент, который призван очищать текст от канцелярита, местоимений, некоторых прилагательных и глаголов), который тоже, по сути, определяет водность, немного другая система – чем больше баллов, тем меньше «воды».

Заспамленность/тошнота

Отражает «плотность», то есть количество повторов поисковых запросов или обычных слов и фраз. Чем выше показатель, тем хуже читаемость и выше риск санкций от поисковиков.

Что нужно учитывать при анализе: нельзя указать ключевые слова, по которым оптимизируется текст. Сервисы сами по своим неведомым алгоритмам определяют, что ключ, а что нет. Уменьшить этот показатель, как и в случае с уникальностью, можно с помощью подбора синонимов или увеличив объем.

Как проводить SEO-анализ текста и нужен ли он вообще

SEO-анализ текста — хороший инструмент для быстрого выявления полного копипаста и откровенной графомании.

В остальных случаях автоматические проверки не дают никаких гарантий, что подходящий по всем параметрам текст:

  • вызовет желание читать, репостить, комментировать;
  • будет хорошо конвертироваться в заявки, заказы, подписки;
  • или хотя бы приведет поисковый трафик.

Более того, погоня за максимальными показателями часто бьет по читаемости и превращает нормальный прежде текст в набор символов. Все потому, что все эти попытки загнать текст в прокрустово ложе отвлекают от главного: решения проблем и задач пользователей.

Если текст дает ответ на запрос, помогает решить проблему, сообщает ценную экспертную информацию — с поисковиками все будет хорошо, даже если сервисы SEO-анализа говорят обратное.

Да-да, текст в SEO — один из множества факторов, влияющих на ранжирование в поиске. Исследование «Ашманова и партнеров» показывает, что текстовые факторы влияют на позиции и топ значительно слабее, чем ссылки или трафик. А точные вхождения запросов и большие SEO-тексты или не работают, или вредят.

Заключение

Если хотите заниматься SEO-проверками текста, не стоит ставить завышенные требования, да еще и по нескольким сервисам сразу. Иначе можно опубликовать нечитаемый текст, который еще и не приведет трафик из поиска.

Топ-пост этого месяца:  Локальный веб-сервер OpenServer общее знакомство

На самом деле для объективной оценки качества работы автора лучше найти опытного редактора. Он определит и воду, и стоп-слова, при этом учтет целевую аудиторию, редполитику, структуру и другие важные моменты.

Если вы думаете, что SEO — это какая-то магия, и уже не понимаете, что там работает эффективно, а что безнадежно устарело, — есть решение. Курс от Ingate — один из самых полных профессиональных SEO-курсов в Рунете. Программа длится три месяца, подходит оптимизаторам-новичкам, фрилансерам, интернет-маркетологам и владельцам бизнеса.

Алгоритм LSA для поиска похожих документов

И снова наш аналитический отдел подготовил материал для читателей блога Netpeak. Передаю привет Кириллу Левенцу — он проделал титанический труд, чтобы изложить понятным языком не самые простые вещи.

Среди огромного числа алгоритмов, которые используются для поиска и анализа информации, особое место занимают те, чья цель — обнаружение скрытых закономерностей или неочевидных зависимостей.

Используя семантический анализ текста, мы можем сказать, например, что два текста похожи, даже если эта похожесть выражена косвенно. Или например «лыжи» и «автомобиль» по отдельности относятся к разным категориям, но будучи использованы вместе, могут быть интерпретированы в таких категориях, как «спорт» и «отдых».

Об одном из методов, который применяется для рекомендательных систем (коллаборативная фильтрация), информационного семантического поиска, разделения текстов по тематикам без обучения и многих других и пойдет речь далее. Метод этот называется латентно-семантическим анализом (LSA — Latent semantic analysis). Можно сказать, что это продвинутый SEO анализ текста.

Рассмотрим более подробно, что это за метод и как он работает

Уже из названия можно сделать вывод о том, что он должен делать, а именно находить скрытые смысловые взаимосвязи между объектами (будь-то слова в тексте или товары в магазине). Для текстов на естественных языках такой скрытой закономерностью может быть, например, наличие определенного набора слов в определенной теме. Представим себе такую задачу: у нас есть коллекция документов и мы хотим научиться отвечать на вопрос: два документа близки по тематике или нет. Вывод о схожести можно сделать, основываясь на том, какие слова и в каких пропорциях входят в каждый из документов.

Чтобы подготовить данные для этой задачи, используют подход, который называется «мешок слов».

Его суть состоит в том, что для нас неважен порядок слов в документе, в каких морфологических формах они представлены, а важно только количество вхождений конкретных слов. Предположим, что каждую тему можно охарактеризовать определенным набором слов и частотой их появления. Если в тексте конкретный набор слов употребляется с определенными частотами, то текст принадлежит к определенной теме.

Основываясь только на этой информации, строится таблица «слово-документ». Где строки соответствуют словам (а точнее, их леммам), а столбцы — документам. В каждой ячейке хранится 1, если слово есть в документе, и 0 — если нет. Хотя такой вариант и самый простой, но не самый лучший. Вместо 0 и 1 можно использовать, например, частоту слова в документе или tf-idf слова. Такой способ представления текстов в виде таблицы (или матрицы) называется векторной моделью текста. Теперь, для того чтобы сравнить два документа, нужно определить меру схожести двух столбцов таблицы.

Сделать это можно по-разному:

  • скалярное произведение векторов — столбцов таблицы;
  • косинусное расстояние (пожалуй самое адекватное);
  • евклидовым расстоянием;
  • манхэттенским расстоянием.

Чтобы лучше понять все вышесказанное, изобразим это графически на простом примере двух небольших текстов. Один текст про письменность, другой про неопределенность Гейзенберга. Стоп-слова удалены, а остальные приведены к основной форме (без окончаний). Каждая точка на графике — слово. На осях отложено, сколько раз слово встретилось в каждом документе. Т.е. если слово встретилось в тексте про неопределенность 3 раза, а в тексте про письменность 2 раза, то на рисунке это слово изобразим точкой с координатами (3,2).

Видно, что в этом примере некоторые слова встречались и в одном и в другом тексте приблизительно одинаково часто («свободн», «друг», «звук» и так дплее). Такие слова не дают возможности отличить тексты один от другого и в принципе сравнимы со стоп-словами. Но есть слова, которые характерны только одному из текстов. Имея такое представление текста, мы можем определять близость каждого слова к теме (как косинус угла между вектором с началом в (0;0) и концом в точке слова и осью, соответствующей документу). Если же такого слова в коллекции нету, то о нем мы ничего не можем сказать.

Для сравнения документов можно подсчитать сумму векторов-слов, которые в них входят и опять же оценить расстояние между ними. В рассмотренном примере слова распределились хорошо, так как тематики существенно разные. А если тематики схожи, то может получиться такая картина:

По сравнению с предыдущей картинкой видно, что документы существенно похожи, и, кроме того, есть слова, которые характеризуют общую тематику для обоих текстов (например «язык» и «письмен»). Такие слова можно назвать ключевыми для данной темы. Т.е. напрашивается вывод, что имея такое представление текстов, мы теоретически можем сгруппировать документы по близости их содержимого, и таким образом построить тематическое разбиение коллекции текстов. В частности может оказаться, что каждый документ — это отдельная тема. Также можно искать документы по запросу, при этом могут находиться документы, которые не содержат слов из запроса, но близки ему по теме.

Но в жизни оказывается, что документов и слов очень много (гораздо больше чем тем) и возникают следующие проблемы:

  • размерности (вычисление близости между векторами становится медленной процедурой);
  • зашумленности (например, посторонние небольшие вставки текста не должны влиять на тематику);
  • разряженности (большинство ячеек в таблице будут нулевыми).

В таких условиях довольно логично выглядит идея, вместо таблицы «слово-документ» использовать что-то типа «слово-тема» и «тема-документ». Решение именно такой задачи предлагает LSA. Правда, интерпретация полученных результатов может оказаться затруднительной.

На рисунке приведен пример карты двух художественных текстов. Видно, что у них есть как свои особенности, так и много общего, и можно выделить новую тематику. Если говорить в терминах линейной алгебры, то нам нужно такое представление:

Числа в таблицах в общем случае не обязательно будут именно 0 и 1. Имея такое представление, мы можем кроме оценки близости слов и документов, также определять важные слова для каждой тематики.

Ограничения LSA:

  1. Невозможно получить тематик больше чем документов/слов.
  2. Семантическое значение документа определяется набором слов, которые, как правило, идут вместе.
  3. Документы рассматриваются как просто наборы слов. Порядок слов в доку­ментах игнорируется. Важно только то, сколько раз то или иное слово встречается в документе.
  4. Каждое слово имеет единственное значение.
  5. Недостаток LSA — предположение о том, что карта слов в документах не имеет вид нормального распределения. С этой проблемой справляются другие модификации метода (вероятностный LSA и LDA).

LSA включает в себя следующие этапы:

  1. Удаление стоп-слов, стемминг или лемматизация слов в документах;
  2. Исключение слов, встречающихся в единственном экземпляре;
  3. Построение матрицы слово-документ (бинарную есть/нет слова, число вхождений или tf- >В итоге получается нечто такое:

Пример с небольшими документами

[Взят из статьи Indexing by Latent Semantic Analysis, Scott Deerwester, Susan T. Dumais, George W. Furnas, and Thomas K. Landauer, Richard Harshman]

Пусть имеется следующий набор заголовков-документов:

  • c1: Human machine interface for ABC computer applications
  • c2: A survey of user opinion of computer system response time
  • c3: The EPS user interface management system
  • c4: System and human system engineering testing of EPS
  • c5: Relation of user perceived response time to error measurement
  • m1: The generation of random, binary, ordered trees
  • m2: The intersection graph of paths in trees
  • m3: Graph minors IV: Widths of trees and well-quasi-ordering
  • m4: Graph minors: A survey

Выделяем слова, которые встретились хотя бы в двух заголовках. И строим матрицу слово-документ: в ячейках будем писать количество вхождений слова в до­кумент.

Применяем сингулярное разложение к этой матрице и получаем три матрицы (U, V, W T ).

Чтобы иметь возможность визуально оценить результат, выделим только две главные компоненты, соответствующие самым большим сингулярным числам. Используем значения в выделенных столб­цах как координаты и изобразим их в виде точек на плоскости (синим цветом документы, красным — слова, кругами — возможные тематики).

Рассмотрим расстояние между каждой парой слов. Было (желтым цветом выделены значения выше 0):

Стало после снижения размерности (зеленым цветом выделены значения больше 0,8):

Как и по картинке, так и по таблице видно, что термины образовали 2 группы (довольно условно) и по сравнению с исходной матрицей связи значительно усилены (как укрепились исходные, так и появились новые):

  • [human, interface, computer, user, EPS, response, time],
  • [survey, trees, graph, minors].

Между каждой парой документов.

Отношение термин документ.

Рассмотрим еще один пример: пусть имеются три документа, каждый — на свою тематику (первый про автомобили, второй про спорт и третий про компьютеры). Используя LSA, изобразим двумерное представление семантического пространства, и как в нем будут представлены слова (красным цветом), запросы (зеленым) и документы (синим). Напомню, что все слова в документах и запросах прошли процедуру лемматизации или стемминга.

Видно, что тема «компьютер» хорошо отделилась от двух других. А вот «спорт» и «авто» довольно близки друг другу. Для каждой темы проявились свои ключевые слова. Зеленым на рисунке изображен запрос «автомобил колес». Его релевантность к документам имеет следующий вид:

  1. ‘sport.txt’ — 0.99990845
  2. ‘auto.txt’ — 0.99987185
  3. ‘computer.txt’ — 0.031289458

Из-за близости тем «спорт» и «авто» довольно сложно точно определить, к какой теме он принадлежит. Но точно не к «компьютерам». Если в системе, обученной на этих документах, попытаться определить релевантность к образовавшимся темам слова «рынок», то в ответ мы получим 0 (т.к. это слово в документах не встречалось ни разу). Добавим в систему документ по теме «финансы». Будем снова искать слово «рынок».

Получим следующую картинку:

Релевантность к темам будет такой:

  1. ‘finance.txt’ — 0.99948204
  2. ‘sport.txt’ — 0.97155833
  3. ‘auto.txt’ — 0.23889101
  4. ‘computer.txt’ — -0.24506855

Итак подведем итог:

  1. LSA позволяет снизить размерность данных — не нужно хранить всю матрицу слово-документ, достаточно только сравнительно небольшого набора числовых значений для описания каждого слова и документа.
  2. Получаем семантическое представление слов и документов — это позволяет находить неочевидные связи между словами и документами.
  3. Из минусов — очень большая вычислительная сложность метода.

Латентно-семантический анализ

Как находить тексты похожие по смыслу? Какие есть алгоритмы для поиска текстов одной тематики? – Вопросы регулярно возникающие на различных программистских форумах. Сегодня я расскажу об одном из подходов, которым активно пользуются поисковые гиганты и который звучит чем-то вроде мантры для SEO aka поисковых оптимизаторов. Этот подход называет латентно-семантический анализ (LSA), он же латентно-семантическое индексирование (LSI)

Предположим, перед вами стоит задача написать алгоритм, который сможет отличать новости о звездах эстрады от новостей по экономике. Первое, что приходит в голову, это выбрать слова которые встречаются исключительно в статьях каждого вида и использовать их для классификации. Очевидная проблема такого подхода: как перечислить все возможные слова и что делать в случае когда в статье есть слова из нескольких классов. Дополнительную сложность представляют омонимы. Т.е. слова имеющие множество значений. Например, слово «банки» в одном контексте может означать стеклянные сосуды а в другом контексте это могут быть финансовые институты.

Латентно-семантический анализ отображает документы и отдельные слова в так называемое «семантическое пространство», в котором и производятся все дальнейшие сравнения. При этом делаются следующие предположения:

1) Документы это просто набор слов. Порядок слов в документах игнорируется. Важно только то, сколько раз то или иное слово встречается в документе.
2) Семантическое значение документа определяется набором слов, которые как правило идут вместе. Например, в биржевых сводках, часто встречаются слова: «фонд», «акция», «доллар»
3) Каждое слово имеет единственное значение. Это, безусловно, сильное упрощение, но именно оно делает проблему разрешимой.

Пример

Для примера я выбрал несколько заголовков с различных новостей. Они выбраны не совсем случайно, дело в том, что для случайной выборки потребовался бы очень большой объем данных, что сильно затруднило бы дальнейшее изложение. Итак, было выбрано несколько заголовков.

Первым делом из этих заголовков были исключены, так называемые, стоп-символы. Это слова которые встречаются в каждом тексте и не несут в себе смысловой нагрузки, это, прежде всего, все союзы, частицы, предлоги и множество других слов. Полный список использованных стоп-символов можно посмотреть в моей предыдущей статье о стоп-симолах

Далее была произведена операция стемминга. Она не является обязательной, некоторые источники утверждают, что хорошие результаты получаются и без нее. И действительно, если набор текстов достаточно большой, то этот шаг можно опустить. Если тексты на английском языке, то этот шаг тоже можно проигнорировать, в силу того, что количество вариаций той или иной словоформы в английском языке существенно меньше чем в русском. В нашем же случае, пропускать этот шаг не стоит т.к. это приведет к существенной деградации результатов. Для стемминга я пользовался алгоритмом Портера.

Дальше были исключены слова встречающиеся в единственном экземпляре. Это тоже необязательный шаг, он не влияет на конечный результат, но сильно упрощает математические вычисления. В итоге у нас остались, так называемые, индексируемые слова, они выделены жирным шрифтом:

1. Британская полиция знает о местонахождении основателя WikiLeaks
2. В суде США начинается процесс против россиянина, рассылавшего спам
3. Церемонию вручения Нобелевской премии мира бойкотируют 19 стран
4. В Великобритании арестован основатель сайта Wikileaks Джулиан Ассандж
5. Украина игнорирует церемонию вручения Нобелевской премии
6. Шведский суд отказался рассматривать апелляцию основателя Wikileaks
7. НАТО и США разработали планы обороны стран Балтии против России
8. Полиция Великобритании нашла основателя WikiLeaks, но, не арестовала
9.В Стокгольме и Осло сегодня состоится вручение Нобелевских премий

Латентно семантический анализ

На первом шаге требуется составить частотную матрицу индексируемых слов. В этой матрице строки соответствуют индексированным словам, а столбцы — документам. В каждой ячейке матрицы указано какое количество раз слово встречается в соответствующем документе.

Следующим шагом мы проводим сингулярное разложение полученной матрицы. Сингулярное разложение это математическая операция раскладывающая матрицу на три составляющих. Т.е. исходную матрицу M мы представляем в виде:

где U и V t – ортогональные матрицы, а W – диагональная матрица. Причем диагональные элементы матрицы W упорядочены в порядке убывания. Диагональные элементы матрицы W называются сингулярными числами.

Прелесть сингулярного разложения состоит в том, что оно выделяет ключевые составляющие матрицы, позволяя игнорировать шумы. Согласно простым правилам произведения матриц, видно, что столбцы и строки соответствующие меньшим сингулярным значениям дают наименьший вклад в итоговое произведение. Например, мы можем отбросить последние столбцы матрицы U и последние строки матрицы V^t, оставив только первые 2. Важно, что при этом гарантируется, оптимальность полученного произведения. Разложение такого вида называют двумерным сингулярным разложением:

Давайте теперь отметим на графике точки соответствующие отдельным текстам и словам, получится такая занятная картинка:

Из данного графика видно, что статьи образуют три независимые группы, первая группа статей располагается рядом со словом «wikileaks», и действительно, если мы посмотрим названия этих статей становится понятно, что они имеют отношение к wikileaks. Другая группа статей образуется вокруг слова «премия», и действительно в них идет обсуждение нобелевской премии.

На практике, конечно, количество групп будет намного больше, пространство будет не двумерным а многомерным, но сама идея остается той же. Мы можем определять местоположения слов и статей в нашем пространстве и использовать эту информацию для, например, определения тематики статьи.

Улучшения алгоритма

Легко заметить что подавляющее число ячеек частотной матрицы индексируемых слов, созданной на первом шаге, содержат нули. Матрица сильно разрежена и это свойство может быть использовано для улучшения производительности и потребления памяти при создании более сложной реализации.

В нашем случае тексты были примерно одной и той же длины, в реальных ситуациях частотную матрицу следует нормализовать. Стандартный способ нормализации матрицы TF-IDF

Мы использовали двухмерную декомпозицию SVD-2, в реальных примерах, размерность может составлять несколько сотен и больше. Выбор размерности определяется конкретной задачей, но общее правило таково: чем меньше размерность тем меньше семантических групп вы сможете обнаружить, чем больше размерность, тем большее влияние шумов.

Замечания

Для написания статьи использовалась Java-библиотека для работы с матрицами Jama. Кроме того, функция SVD реализована в известных математических пакетах вроде Mathcad, существуют библиотеки для Python и C++.

LSI слова и копирайтинг: полная инструкция как найти и использовать

LSI (Latent Semantic Indexing, “скрытое семантическое индексирование” или “индексация скрытого смысла”) – это добавление в текст статьи релевантных, тематических и сопутствующих ключевому запросу слов, формирующих тему, на которую пишется контент.

Что такое LSI слова?

LSI слова – это ключевые слова, связанные с основным ключом семантически. Они являются неотъемлемым элементом алгоритма LSA, то есть латентно-семантического анализа, который американские инженеры использовали еще в 1988 году для индексирования текстов и отображения баз данных. Затем его стали применять с целью анализа знаний американских школьников.

Многие вебмастера ошибочно полагают, что LSI словами являются лишь синонимы к основным ключевым фразам. Но в качестве них выступают любые ключевики, отображающиеся в результатах выдачи рядом с ключевым запросом, указанным в строке поиска, потому что у них аналогичный контекст.

Что такое LSI копирайтинг?

LSI копирайтинг – это способ написания текстового материала, направленный на увеличение релевантности страницы при анализе поисковиком синонимов и сопутствующих фраз ключевику, а также смысла текста и его подачи. Данный метод копирайтинга убеждает поисковых роботов в актуальности, ценности и достоверности статьи, что способствует ее поднятию в первую десятку поиска Google и Яндекса.

Принцип LSI копирайтинга заключается в том, что поисковые системы в процессе анализа текстов на сайте, помимо ключей, формирующих семантическое ядро, учитывают еще сопутствующие слова и похожие друг на друга по смыслу, раскрывающие тематику статьи.

Ассоциативное ядро формируют синонимы, гипонимы, гиперонимы, смежные термины и понятия, ассоциации и прочие слова. И чем оно масштабнее, тем материал может быть ценнее для поисковиков, соответственно страница с таким контентом должна ранжироваться выше.

В связи с этим многие сеошники, составляя технические задания для копирайтеров, указывают в них не только ключи, но и LSI-слова, которые нужно применить в тексте.

Чтобы было понятнее, приведу пример. Возьмем высокочастотный запрос “гольф”. Вам нужно написать статью. Если затачивать ее лишь под один ключевой запрос, поисковой машине будет трудно разобраться, о чем идет речь: о машине, длинном носке, игре или свитере.

Чтобы разобраться, поисковый робот в ходе индексации занимается анализом тематического ядра, то есть текста, окружающего основной ключ. И если в тематическом облаке будут содержаться сопутствующие ключу слова, то поисковик быстро поймет, о чем статья.

Пример LSI ядра для запроса “гольф”:

Здесь сразу понятно, что речь идет не о машине или одежде, а об игре.

Аналогичная ситуация и с более конкретными ключевиками. Если человек указывает в строке поиска запрос по типу “правила игры в гольф”, то грамотно составленное тематическое ядро выступает одним их важнейших факторов ранжирования, так как дает пользователю развернутый и полезный ответ на вопрос, избавляя его от длительных поисков релевантной информации.

LSI копирайтинг направлен на создание текстов под запросы с добавлением большого количества тематических слов со схожим смыслом. Он повышает релевантность и читабельность текста, что выгодно и пользователям, и роботам поисковых систем.

Как появился LSI копирайтинг?

В начале 21 века популярные поисковики Яндекс и Google, а с ними и многие другие системы были не такие совершенные, как сегодня. Они проводили анализ соответствия страницы пользовательскому запросу, основываясь на числе вхождений ключевиков. Этим пользовались многие оптимизаторы, используя в текстах чрезмерное количество ключевых слов и вдобавок выделяя их жирным шрифтом.

Читать подобные тексты “без слез” человеку было очень трудно, но поисковых роботов они вполне устраивали, в результате чего занимали в выдаче высокие места.

Вот пример одного из переоптимизированных текстов, заспамленого ключами:

Еще двадцать лет назад подобный текст ранжировался хорошо, но сегодня страница с таким содержанием без сомнений попадет под фильтр, потому что поисковики существенно улучшили свою работу. Теперь они анализируют интент пользователя, отображают в результатах страницы с ответами, основываясь на типе запроса: информационный или коммерческий и намерения пользователя.

Реализация принципа анализа текстового материала на основе латентно-семантического индексирования была проведена именно для запросов информационного типа.

Зимой 2011 года Google внедрил алгоритм Panda, вследствие чего подход к ранжированию сайтов существенно изменился. Появление Гугловского алгоритма было направлено на нахождение и уменьшение количества некачественного контента в интернете, а также более высокое ранжирование веб-ресурсов с качественным, полезным и информативным контентом.

Про LSI копирайтинг впервые заговорили в 2012 году. В то время, кто обучался и использовал данный способ написания текстов, имели больше шансов добиться положительных результатов в пассивном продвижении.

Устаревшие методы создания контента подразумевали под собой спам ключевиками. Полотно из сотен или тысяч слов, где регулярно повторяются одни и те же ключевые слова и фразы, размещали в середине страницы или в самом ее верху. Маркетологи таким текстом были довольны, в отличие от обычных посетителей сайта.

Инженер по оптимизации в Google, Мэтт Катт, в 2012 году официально заявил, что отныне нужно писать максимально естественный текст. Материал должен быть ценным прежде всего для живой аудитории, а не ботов.

В 2013 году компания Google усовершенствовала семантический поиск за счет реализации алгоритма Колибри, еще известного как Hummingbird. Представители поискового гиганта сообщили, что ситуация изменится в более чем 90% страниц выдачи, формируемых системой для показа результатов на пользовательские запросы.

Алгоритм стал оценивать релевантность текстового контента запросам людей в поиске. Начальник отдела по разработке поисковой системы, Амит Смит, отметил, что данное обновление для Google стало самым ключевым с 2001 года. Создать алгоритм разработчики корпорации решили после учащения случаев употребления разговорной речи для поиска нужной информации в интернете.

На заметку. Именно с 2013 года специалисты начали все чаще говорить о том, что SEO-копирайтинг канул в Лету и всем придется обучиться LSI-копирайтингу.

Вслед за Гуглом последовал и Яндекс. В 2020 году вышел алгоритм “Палех”, после которого русскоязычные вебмастера больше заинтересовались термином LSI. Новая технология находит слова по смыслу при помощи нейронных связей.

Тогда-то многие копирайтеры впервые столкнулись с более сложными ТЗ, где кроме основных ключей им нужно было органично вписывать LSI слова, при этом создавать не оптимизированный под ключи текст с необходимым процентом плотности ключей, тошноты и прочих показателей, а реально качественный, более живой контент, с разбавленными ключами или вообще без них.

Уже спустя год (в 2020 году) вышло еще два обновления: “Королев”, тоже основывающийся на нейронных связях, а вслед за ним “Баден-Баден”. Они призваны проводить латентный семантический анализ, чтобы определять и понимать разговорную и естественную речь, а также наказывать сайты с переоптимизированным контентом.

Данный анализ обрабатывает текст, написанный естественным языком. По нему проводится латентное семантическое индексирование. Благодаря алгоритмам машина осознает контентный смысл, его содержание по сопутствующим и тематическим словам, синонимам, схожим и латентным запросам, тем самым оценка роботов стала близкой к человеческой оценке. Внедрение современных алгоритмов позволило поисковикам защитить свою выдачу от вебмастерских манипуляций.

Все это и привело к появлению терминов LSI-слова и LSI-копирайтинг, направленных на расширение ключевого запроса и, как следствие, создание владельцами сайтов качественной и полезной информации на своих площадках.

Важно знать! Сегодня поисковые роботы приветствуют не плотность ключевых слов и тошноту текста, а осмысленный копирайтинг, читабельный текст, создаваемый на основе проведения анализа семантики.

“Хвостовые” LSI запросы

Тексты с дополнительными ассоциативными ключами используются не только для оптимизации страниц с целью их лучшего ранжирования по поисковым запросам. Есть еще один нюанс, уделив внимание которому вы сможете повысить на сайте до 50% целевой аудитории из поисковиков. Речь идет о “хвостовых” запросах.

Хвостовыми запросами являются длинные запросы, которые люди вводят в поисковой строке очень редко – около 1-2 раз в месяц или даже раз в 2-3 месяца.

Вот пример: “какую игровую приставку лучше взять ребенку: Xbox One или Playstation 4 и почему”. Подобные запросы не отображаются в сервисах Google Keyword Planner и Яндекс.Вордстат. А называют их хвостовыми по той причине, что их окончание включает множество слов, содержащихся в тематическом ядре.

Теперь возьмем для примера две статьи, оптимизированные под запрос “Какую игровую приставку лучше купить ребенку”. Одна статья рассказывает обо всех поколениях игровых приставок Sony и Xbox, а вторая – конкретно о двух моделях из хвоста запроса. Разумеется, при прочих равных параметрах вторая статья окажется в результатах выдачи по “хвостовому” запросу выше.

Основное преимущество длинных запросов заключается в их большом количестве. Нет нужды оптимизировать страницы под каждый из них, потому что их сотни или даже тысячи. Но чем тщательнее проработано семантическое ядро, тем больше хвостовых запросов охватывается, значит вы сможете привлечь на сайт больше трафика.

На заметку. LSI тексты позволят привлекать масштабную аудиторию даже в нишах, где по основным запросам огромная конкуренция.

Если вы просмотрите на многие новые сайтов, то увидите, как начинающие вебмастера с копирайтерами стараются оптимизировать страницы под основные ключевые фразы. Но с молодыми проектами и для высококонкурентных запросов данный метод неэффективен, так как результаты будут крайне низкими.

Опытные специалисты в конкурентных нишах продвигаются по низкочастотным ключевикам, которые вводят не более 500 раз в месяц. Они делают акцент на LSI копирайтинг и “хвостовые” запросы. В данном случае хороших результатов можно ожидать уже спустя несколько месяцев.

Чем отличается LSI-текст от SEO-текста?

В случае с SEO-копирайтингом важны ключевые слова, их плотность в тексте и виды вхождения. Принцип LSI-копирайтинга заключается в том, что здесь релевантность текста зависит непосредственно от способов написания ключей и сопутствующих им слов, уместности их использования, а также соответствия контексту.

Важно и качество текстового контента, потребности и тематические предпочтения аудитории. Потребности пользователей изучаются за счет отказов. Отказом считается посещение читателем страницы длительностью меньше 15 секунд. Релевантность страницы больше зависит от ее текстового содержания и смысла информации, чем от количества и вхождений ключевых слов в текст.

Важно! LSI-тексты не заменяют SEO-копирайтинг. Это часть общего SEO-продвижения сайта, появившаяся из-за внедрения новых требований к качеству сайтов. Да, умение правильно формировать семантическое ядро поможет собирать трафик по длинным (”хвостовым”) низкочастотным и низкоконкурентным запросам. Но чтобы достичь максимальных результатов, нужен комплексный подход.

Для лучшего понимания разницы SEO текстов от LSI, приведу несколько примеров.

Прописываю в Яндексе запрос “купить эллиптический тренажер”, смотрю на качество текстов на страницах, занимающих разные позиции.

Страница №1. Перед вами описание раздела каталога интернет-магазина:

Страница не попадает даже в ТОП-50 поисковой выдачи. В тексте есть переспам основного ключевого слова, он используется 12 раз, при том что объем текста небольшой. Заказчик дал копирайтеру задание написать текст, заточенный точно под необходимые запросы, при этом читабельность и информативность описания ушла на второй план. Классический неудачный SEO-текст, ориентированный на основной ключевик.

Страница №2. Текст интернет-магазина, уверенно занимающего свое место в первой десятке результатов выдачи:

Это пример информативного и естественного контента, оптимизированного для людей. Но и у него есть недостаток – владелец сайта решил использовать в тексте фрагмент, посвященный услугам сервиса, в котором используются коммерческие ключевые слова и фразы: “скидки”, “доступные цены” и так далее. Здесь данная информация не имеет смысловой нагрузки.

Топ-пост этого месяца:  Административная панель Joomla (админка джумлы)

Текст на втором примере является не заспамленным набором слов, а несет полезную информацию. И если удалить из контента основной запрос “купить эллиптический тренажер”, он сохранит смысл.

Если удалить тот же ключ из первой страницы и прописать вместо него другой тренажер, смысл не поменяется, а значит, текст шаблонный.

Преимущества LSI текстов

Хочу выделить четыре основных достоинства текстов, написанных методом LSI копирайтинга:

1. Сайт поднимется в выдаче

Веб-ресурсы, содержащие LSI-тексты, лучше ранжируются поисковыми системами. Наиболее эффективно они работают для высококонкурентных ключевых запросов, когда сайт не может занять более высокие места, а оптимизаторы уже использовали множество факторов. Но это не значит, что LSI не пригодится для других видов запросов.

2. Меньше рисков попасть под фильтры поисковиков

Как показывает практика, тексты с применением LSI слов подвергаются санкциям из-за спама не так часто.

Известный SEO-специалист Алексей Чекушин утверждает:

У скрытого семантического индексирования в спам-алгоритмах вес гораздо меньше, нежели в алгоритмах ранжирования. И если ресурс попал под фильтры “Баден-Баден”, “Панда” и прочие, то один из вариантов выйти из-под них – переписать текстовый контент. Ну а чтобы и вовсе под них не попадать и не терять драгоценное время, LSI тексты лучше писать сразу.

3. Расширяется семантическое ядро

Помимо воздействия на факторы ранжирования, LSI контент за счет наличия дополнительных тематических слов и ключей является отличным источником трафика, охватывая больше целевой аудитории. А в ходе анализа конкурентов и популярных слов в своей нише можно получить большое количество идей для новых статей и даже целых рубрик.

Находя LSI-слова для коммерческих страниц веб-сайта, предоставляющего услуги, вы наверняка соберете новые темы для новых схожих страниц и информационных ключевиков для дальнейших публикаций.

4. Другие преимущества в ранжировании

  1. Улучшаются поведенческие факторы.
  2. Увеличивается количество ссылок и социальных сигналов.

И все это положительно влияет на позиции сайта в поисковой выдаче.

Пользователям куда удобней и приятней проводить время на сайте с удобочитаемым, полезным и информативным текстом. Хороший контент посетители чаще репостят, лайкают, скидывают ссылки в социальные сети, на страницах дольше проводят время, хотят почитать другие интересные статьи, что приводит к росту поведенческих, хостовых факторов, авторитета ресурса.

На заметку. Поисковые алгоритмы постоянно совершенствуются, и как раз в пользу ценных, естественных текстов, а не переоптимизированных, как это было десятки лет назад. Чтобы избежать проблем c санкциями со стороны поисковых систем, и потом не переписывать тексты, лучше прибегнуть к LSI методике, посмотреть, каких слов не хватает и дописать тексты, если они хорошие. А если плохие, то полностью их переделать.

Виды LSI ключей

Они делятся на два типа:

  1. Релевантные или сопутствующие (rLSI). Представляют собой слова, относящиеся к главному ключу, которые дополняют, описывают и характеризуют их. Также это слова и фразы, относящиеся непосредственно к тематике контента. Благодаря ним роботы поисковых систем могут понять, как сильно раскрыта тематика статьи.
  2. Синонимичные (sLSI). Являются словами-синонимами для основного ключевого запроса. На них обращают огромное внимание при оптимизации контента. Они позволяют избегать неоднократного повторения ключевика.

Если привести пример с вышеупомянутым запросом “эллиптический тренажер”, то синонимами для него могут выступать:

А сопутствующими тематическими словами и фразами являются:

  • степпер;
  • велотренажер;
  • беговая дорожка;
  • спортивное оборудование;
  • купить тренажер;
  • кардиотренажер;
  • для похудения;
  • цена;
  • магазин;
  • складной;
  • домашний и так далее.

Как найти LSI фразы?

Многочисленные исследования показали, что роль текстовых факторов в ранжировании сайта составляет около 40% и даже больше, что зависит от типа запроса. Поэтому эффективность оптимизации сайта во многом зависит как раз от контента, который он содержит.

В качественных текстах помимо ключевиков должны быть LSI-фразы, семантически связанные с основным запросом. С их помощью поисковые боты находят смысловое соответствие страницы запросу пользователя и могут корректно классифицировать ее.

Невозможно написать текст на основе LSI слов без нужных запросов, поэтому нужно учиться их искать. Поиск связанных ключевиков подразумевает под собой не только применение специальных инструментов, но и самостоятельное изучение темы, поиск идей, как сделать контент ценнее, чем у конкурентов. Это достигается путем:

  1. Анализа основных ключевых запросов в сервисе Wordstat от Яндекса.
  2. Изучение ТОП конкурентов и их сниппетов.
  3. Поиск непосредственных конкурентов и сайтов с похожей тематикой, тематических каналов на Youtube, социальных сетей, форумов и так далее.
  4. Просмотр статистики контекстной рекламы вашего сайта, а также запросов, по которым используется контекстная реклама у конкурентов.

Рассмотрим популярные инструменты для сбора LSI-фраз.

Бесплатные инструменты


Подсказки поисковых систем Яндекс и Google

Поисковики сделали вывод, что скрытое семантическое индексирование точнее всего направлено на интент, максимально удовлетворяя пользовательские запросы. В связи с этим они стали показывать тематические слова и фразы в подсказках в поисковом поле после того, как человек введет ключевое слово.

Это отличный и легкий способ найти запросы, сопутствующие основному ключевику – посмотреть на запросы, пользующиеся большим спросом у людей. Вводя ключевую фразу, Яндекс и Гугл в подсказках поиска отобразят несколько вариантов запросов, которые пользователи ищут наиболее часто в пределах данного ключа.

Вот так подсказки выглядят у Яндекса:

На заметку. Подсказки поисковиков отличаются в зависимости от региона, где находится пользователь. По этой причине результаты разнятся. Однако во всех них есть LSI ключи, значит, они помогут составить семантическое ядро. Подсказки обновляются минимум один раз в сутки, отображают актуальные тренды, покрывают запросы, в несколько раз увеличивают релевантность контента, благодаря чему привлекают на страницы больший объем трафика.

Можно парсить подсказки Яндекса и Google вручную или с помощью программы KeyCollector или сервисов, например бесплатный Пиксель Тулс. С его помощью можно найти LSI слова даже в Youtube.

Важно! Подсказки Яндекса для поиска LSI слов и фраз более эффективные, так как Google выдает очень мало узкотематических подсказок. По тому же запросу “LSI-запросы” Яндекс выдает 10 подсказок, в то время как Google всего лишь 3.

Рекомендации Яндекс и Google

Поисковые системы внизу страницы поиска показывают рекомендации, еще известные как “Вместе с этим ищут”, то есть что пользователей, которые ввели определенный запрос, интересует еще. В данном случае намерения человека сохраняются, у разных фраз схожая семантическая связь. В рекомендациях есть LSI слова и фразы, в которых вообще нет ни единого слова из основного запроса.

Бесплатный парсинг блока “Вместе с запросом ищут” обеспечивает все тот же сервис Пиксель Тулс. Инструмент вы найдете здесь.

Яндекс.Вордстат

Тут вам понадобится правая колонка инструмента, называющаяся «Запросы, похожие на основной запрос». Это не значит, что левая колонка бесполезная, она служит для формирования основного семантического ядра. А благодаря словам из правой колонки мы наполним LSI-ядро дополнительными словами.

Парсить Вордстат можно в сервисе Moab, но бесплатно доступны первые 5000 фраз. Он сочетает в себе не только парсинг Wordstat, но и подсказок. Сервис чистит и соединяет их в одно.

Пиксель Тулс тоже предоставляет возможность анализа ТОП выдачи, показывая наиболее частотные слова из поиска (ТОП 5-15 или ручная выписка веб-ресурсов необходимого типа), которых нет у вас, то есть сервис сравнивает с вашим релевантным документом в Яндексе.

Google Keyword Planner

Планировщик от Гугла. Для работы в сервисе нужен аккаунт в AdWords. Еще потребуется указать данные для рекламного объявления. Информацию по платежным картам вводить не обязательно. Для перехода к планировщику ключевиков вам понадобится раздел “Инструменты”.

Нажимаете на “Поиск ключевых слов и получение статистики запросов”. Дальше пишите необходимый запрос в блоке “по фразе, сайту или категории”. Кликаете “Получить варианты”:

Тестирование словосочетаний не дало полезных результатов. Подсказки по LSI тематике относятся к копирайтингу, биржам и иным словам, которые окажутся полезными лишь при написании статьи об LSI-контенте. Оказались бессильными и фразы “как найти”, “как собрать” и тому подобные.

А вот для “копирайтинга” планировщик предложил 354 тематических ключевых слова.

На заметку. Инструмент актуален для использования только в случае популярных ключевиков. Плюс планировщика в том, что он показывает подробную статистику по любому слову: “уровень конкуренции”, “среднее количество запросов в месяц”.

Инструменты Арсенкина

Данный инструмент парсит подсветки Яндекса, хотя поисковик их частично отключил, и кроме этого формирует частотный словарь, анализируя сниппеты. В нем показываются самые часто используемые слова. Отличный сервис, чтобы найти дополнительные ключи индексации скрытого смысла.

Можно изучать сниппеты и находить дополнительные слова самостоятельно. Просто просматриваете описания страниц в ТОП-10 результатов выдачи и находите слова, встречающиеся чаще всего.

Не могу не упомянуть и про еще один бесплатный и не менее полезный инструмент онлайн от Арсенкина – Парсинг тегов H1-H6 по конкурентам из ТОП-10 поисковой выдачи.

Хорошо подходит для парсинга LSI-слов, а также синонимов и дополнительных ключевиков. Инструмент поможет найти идеи для статей, которые смогут полностью охватить тему материала.

Укажите запрос и проанализируйте первые 5 или 10 страниц из выдачи Яндекса. Еще можно составить собственный список из 20 УРЛ-адресов страниц сайтов-конкурентов. Инструмент удобен тем, что дает возможность собрать их мета-теги Title и Description.

Text Analyzer

Эффективность результатов инструмента зависят от изучаемого текста. Тут анализируется не запрос, а весь текстовый материал сайтов из ТОП выдачи. Это текстовый анализатор, он формирует частотные словари по одно- и многословникам. А слова, полученные в результатах, можно применять в качестве LSI.

Pixel Tools – ТЗ для копирайтеров

Сервис работает подобно инструментам Арсенкина, показывает только LSI ключи, состоящие из одного слова. Использование инструмента отлично дополнит парсинг LSI слов и фраз вышеуказанными методами.

Megaindex

Тоже показываются лишь однословные ключи, но они отлично дополняют данные, полученные из других сервисов.

Найти инструмент можно, перейдя в “Продукты” –> “Приложения” –> “Анализ текста”. Регистрация не требуется. Вводите в специальное поле нужный запрос и кликаете “Показать”.

Megaindex изучает все страницы из ТОП поиска, предлагая одиночные сопутствующие слова для указанного запроса.

Promopult

Инструмент представляет собой генератор ключевых слов. Прописываете основной ключевой запрос в ячейке и кликаете на кнопку “Семантика”. Через несколько секунд будет сформирован список из десятков LSI-фраз:

Среди них есть и тематические слова, и синонимы. Сервис предоставляет возможность разбивать фразы на составляющие и использовать в тексте запросы из одного слова, чтобы не допустить повторное написание ключа.

Платные инструменты

Rush Analytics – cбор поисковых подсказок

Платный парсер, помогающий в SEO-продвижении сайта и создании семантического ядра. Найти функцию вы сможете в разделе “Сбор поисковых подсказок”. Инструмент всего за несколько минут отыщет подсказки из Яндекса, Google и Youtube.

Также инструмент занимается парсингом блоков “Похожие запросы” и “Вместе с запросом ищут”.

Подсказки будут представлены в отчете в виде документа Excel. Сформированные LSI ключи эффективно применять в любых текстовых элементах документа: заголовках H1-H6, Title, Description, анкорах ссылок, атрибутах Alt и Title изображений и так далее.

Click.ru

Сервис сбора и парсинга семантического ядра на основе LSI слов. Стоимость: от 7 копеек за операцию. Первые 50 слов и фраз – бесплатно.

LSIGraph

Специализированный сервис стоимостью 27 долларов в месяц. Первые 20 операций в сутки доступны бесплатно.

Just Magic

Сервис “Акварель-генератор” стоимостью 10 копеек за операцию или 1000 рублей за подписку эффективный, но очень ресурсоемкий. Чтобы проверить одно слова, нужно потратить 3 XML-запроса. А для составления списка потребуется около 2300 запросов XML.

Serpstat

Любимый многими вебмастерами и оптимизаторами сервис, так как у него очень много полезных функций, одна из которых – поиск LSI фраз, подсказок, синонимов, анализ семантики. Сервис условно-бесплатный, так как первые 30 запросов доступны бесплатно, а дальше действуют следующие тарифы:

  • До 300 запросов – 19 долларов в месяц.
  • До 1000 запросов – 69 долларов в месяц.

Расстраивает то, что по узкотематическим запросам результаты анализа ключевых слов очень скудные:

Ну а для более популярных запросов ситуация куда радостнее. Тут показываются и популярные фразы, и ключевые фразы, есть даже возможность посмотреть данные из разных поисковых систем:

На заметку. Для парсинга LSI семантики по НЧ запросам и узкой теме инструмент малоэффективен, чего не скажешь о ВЧ запросах и популярной нише.

Как применять LSI в тексте

Писать текст с использованием латентного семантического индексирования – не одно и то же, что писать стандартную SEO статью. Основное отличие заключается в том, что перед созданием контента вебмастер составляет тематическое ядро LSI слов и фраз.

Это важнейший подготовительный этап, так как в дальнейшем он непосредственно повлияет на качество LSI фактора в статье, а также число “хвостовых” ключевых фраз.

Сейчас я расскажу поэтапно, как грамотно применять LSI в тексте.

1. Создайте тематическое ядро первого порядка

Его еще иногда называют ассоциативным ядром. Создают его не сразу, а в несколько этапов. На начальном этапе берете список ключевиков, которые собираетесь прописывать в тексте статьи, и выписываете их. Затем сводите семантику в интеллект-карту, что дальше облегчит вам жизнь.

Вот так выглядит локальное семантическое ядро для статьи про LSI копирайтинг:

В него входят четыре фокусных запроса. Есть и второстепенные ключи, но для легкости восприятия информации я указал только основные.

Потом ко всем ключевикам создаете группу синонимов, ассоциаций, гиперонимов, гипонимов и прочих связанных слов, то есть LSI запросов первого порядка. Если образовалось большое количество слов, а ниша не сильно конкурентная, то этого будет достаточно. Вот пример набора LSI слов первого порядка:

Тут запросы похожи, значит есть вероятность, что тематические облака будут совпадать. Тогда рекомендую сгруппировать ключи.

2. Создайте тематическое ядро второго порядка

У вас уже сформированы LSI запросы первого порядка. Дальше для каждого слова создаете тематические мини-ядра. Так, для слова “SEO” выйдет примерно следующее мини-ядро:

Не переживайте, если в нем будут встречаться слова, аналогичные словам из ядра первого порядка. Все нормально.

Важно знать! Нужна косвенная или непосредственная связь ядра первого порядка со вторым. Не будет никакого толку, если использовать слова, имеющие связь с SEO, но не относящиеся к копирайтингу.

Составляя подобные тематические ядра нужно отталкиваться от словарного запаса и не забывать про ассоциативное мышление. Сформировать их программой очень нелегко. В идеале, необходимо применять нейронные сети, но для этого требуются большие мощности, а существующие сегодня сервисы поиска LSI слов не имеют нейронных сетей.

Вот почему в LSI копирайтинге важна осведомленность в нише и большой словарный запас автора.

3. Добавьте LSI фразы

Чтобы успешно решать вопрос улучшения текстовых факторов, первых двух процедур хватает вполне. Но мы разрабатываем более совершенную тактику и из ассоциативного облака формируем список дополнительных LSI фраз, применяемых людьми в естественной речи.

Так выглядит часть ядра тематических фраз:

4. Делаете LSI копирайтинг на основе всех полученных ядер

Вы создали тематическое и семантическое ядра. Дальше вам нужно определиться с форматом контента и структурой материала, а затем написать текст. Приведу в пример хорошую структуру статьи про LSI:

  • Заголовок.
  • Вводный абзац с указанием задачи, которую решает статья.
  • Блок про LSI слова, копирайтинг, запросы и тексты.
  • Блок про “хвостовые” запросы.
  • Модуль про связь LSI и SEO.
  • Правила написания текста с LSI словами.
  • Тематическое ядро первого порядка.
  • Ассоциативное ядро второго порядка.
  • Тематические слова и фразы.
  • Структура и непосредственно текст.
  • Пример.

На заметку. Для достижения высоких результатов LSI фразы нужно распределять по тексту равномерно.

Если страницы поднимутся на высокие позиции и будут собирать большой объем трафика – отлично. Если нет, вам потребуется еще раз изучить LSI запросы, проанализировать конкурентов и переделать контент. Также не забывайте об оптимизации поведенческих и ссылочных факторов.

Исходя из всего вышесказанного можно выделить семь основных правил написания LSI текстов:

  1. Польза. Важно, чтобы автор понимал, для какой целевой аудитории он создает и размещает контент, какие у читателей потребности и интересы. Только так LSI текст сможет отвечать требованиям посетителей.
  2. Простота изложения мысли. Несложный, понятный даже для человека “не в теме” и интересный текст легко и прекрасно воспринимается пользователями. Нужно подобрать подходящий стиль написания и максимально упростить терминологию.
  3. Структура статьи. Не менее важно обеспечить приятную визуализацию текста. Четкий, конкретный и информативный заголовок с подзаголовками, маркированные и нумерованные списки – все это улучшает восприятие информации читателем.
  4. Ритм текста. Чередуйте длинные и краткие предложения, чтобы материал был динамичным и читался быстрее и проще.
  5. Плотность ключей и их распределение по тексту. Это необходимо как для SEO, так и для LSI.
  6. Актуальность и достоверность контента. В статье необходимо раскрывать тематику как эксперт, а не обычный рерайтер.
  7. Отсутствие ошибок. Важно придерживаться грамматики, синтаксиса и структуры предложений. Текст должен отвечать правилам языка.

Только в таком случае тексты будут максимально релевантными поисковым запросам.

Заключение

Написание текстов по принципу латентно семантическому индексированию – самый эффективный способ продвижения информационных веб-ресурсов. Поисковые системы с каждым годом все больше подстраивают свои алгоритмы под LSI тексты. Они дадут вам такие преимущества:

  • Отсутствие переспама и воды, хороший ритм, содержательность и удобочитаемость текста.
  • Улучшение видимости и повышение позиций сайта по большенству низкоконкурентных (НК) и высококонкурентных (ВК) запросов, страница появится в поисковой выдаче не только по основному ключу, но и по всем его “хвостам”.
  • Привлечение трафика по страницам с оптимизированным LSI контентом.
  • Улучшение поведенческих факторов за счет более высокой релевантности, уменьшение отказов, рост траста, ИКС и PageRank ресурса.

Использование LSI слов и фраз в тексте делают текст естественным, целостным, отвечающим пользовательским запросам и требованиям поисковых систем.

Пожалуйста, оцените эту статью. Чтобы мы могли делать лучший контент! Напишите в комментариях, что вам понравилось и не понравилось!

SEO-копирайтинг: что такое + 9 примеров

Этот текст подвергнут СЕО-оптимизации. Как и все другие тексты в этом блоге. И вообще большая часть текстов в интернете, которые Вы находите через Яндекс или Google.

Если набрать в поисковике “Как приготовить оливье”, то я уверяю Вас, ТОП-10 выдачи займут страницы, где находится текст, написанный при помощи SEO-копирайтинга. Добро пожаловать в реальный мир.

Выбирайте: СЕО-оптимизация или контент для пользователя?

Что такое СЕО-копирайтинг

SEO-копирайтинг – процесс создания текстов, оптимизированных под требования поисковых систем.

А требований этих воз и маленькая тележка. Далеко не все из них связаны с текстом, например, поисковики учитывают как минимум: возраст домена, количество входящих ссылок, поведение пользователя на сайте.

И массу других факторов. Однако в рамках этой статьи мы будем говорить только о текстах.

Как это выглядит?

Курсивом на картинке выше выделен обычный текст. В красной рамочке – СЕО-текст. В нём я выделил для Вас жирным шрифтом (не делайте так) ключевые слова, найденные в Яндекс. Wordstat (об этом расскажу ниже).

Смысл текста особо не поменялся, но теперь поисковик увидит в нём ключевые слова, а значит есть шанс попасть в ТОП.

Как это работает?

Чтобы понять, как работают СЕО-тексты и почему поисковики на них реагируют, нужно хотя бы в общих чертах представлять механизм работы поисковых систем.

Проблема в том, что алгоритмы Яндекса и Google (и других поисковиков) – коммерческая тайна, поэтому вся общедоступная информация о процессе ранжирования (то есть сортировки в поисковой системе) сайтов получена эмпирическим путём.

Задача СЕО-текста – донести до поисковика “мысль”, что страница отвечает на запрос пользователя и будет ему полезна.

Понятно, что поисковики сканируют страницы сайтов, и понятно, что они считывают те слова, которые там находятся.

Выглядит это так:

  1. Поисковый робот заходи на страницу сайта;
  2. По её содержимому определяет тематику;
  3. Помещает страницу в индекс – базу поисковой системы;
  4. При запросе пользователя страницы в индексе ранжируются;
  5. Формируется выдача, которую мы с Вами и видим по запросу.

То есть в тот момент, когда Вы вводите запрос в строку поиска, Яндекс или Google не сканируют весь интернет, они показывают Вам те страницы, которые записаны в их базе.

Пример выдачи по запросу “Маркетинговый консалтинг”

Хоть 15% запросов, которые вводятся в поисковики, являются уникальными, но остальные 85% системе уже знакомы, и статистика по ним фиксируется в сервисах подбора ключевых слов.

Джон Мюллер – ведущий аналитик Google

Например, у Яндекса это Яндекс.Wordstat, а у Google это Планировщик ключевых слов. На основании этих данных СЕО-оптимизаторы и готовят ТЗ (техническое задание) копирайтеру — автору текста.

Словарик

Я подготовил для Вас основные понятия в мире СЕО. Это нужно, чтобы составить ТЗ копирайтеру и для проверки текст (а то вдруг недобросовестный подрядчик попадется). К самому принципу их использования мы перейдём позже.

1. Ключевые слова

Это словосочетания, на которые будут ориентироваться поисковые системы при определении тематики страницы сайта.

Они же ключевые запросы, ключи, продвигаемые запросы, анкоры и так далее. Это Вам на будущее, чтобы знали.

Пример ключевых слов

В тексте жирным шрифтом выделены ключевые слова, по которым продвигается эта страница.

Это главное, я бы даже сказал “ключевое” понятие, которое нужно усвоить на этапе первоначального знакомства с SEO-копирайтингом.

Кстати, выделять ключевые слова жирным шрифтом больше не надо. Раньше так делали все, а сейчас за такие фокусы можно залететь под фильтр. Поэтому используйте по назначению.

2. Семантический анализ

Анализ, который производят с помощью специальных алгоритмов для определения параметров текста.

К слову, эти самые “важные параметры” текста и будут учитывать поисковики. К ним относятся:

Вернее стоп-слова (иначе называемые “шумовыми”) поисковики как раз не учитывают, и об этом ниже.

3. Стоп-слова

Слова, которые не несут смысловую нагрузку.

Итак, как уже сказал, поисковики стоп слова не учитывают, это делается с целью снижения нагрузок на сервер и уменьшения размеров индекса. К стоп-словам относятся:

Считается, что они вообще не нужны в сильном тексте, поскольку повышают водность и тошноту (ниже расскажу, что это значит), то есть делают текст хуже с точки зрения поисковых машин и пользователей.

Однако совсем без стоп-слов обойтись не получится. Важно ими не злоупотреблять.

4. Тошнота текста

Простыми словами повторяемость слов.

И хотя это довольно упрощённый подход, но для общего понимания его можно использовать. Причём тошнотность принято разделять на “классическую” и “академическую”.

Этот показатель обычно выражается в процентах и рассчитывается по специальным формулам:

  • Классическая тошнота = квадратный корень из количества вхождений слова в текст.
  • Академическая = соотношение ключевых фраз относительно всех других слов в тексте.

Кстати, это тот самый случай, когда слово используется очень точно. Если параметр тошноты в тексте будет превышен, то читателя действительно может затошнить.

Также большое количество стоп-слов влияет на параметр тошноты, поэтому увлекаться ими не рекомендуется – не более 30% стоп-слов от общего объёма текста.

5. Водность текста

То есть процент слов, не несущих информации.

Предел водности текста – 60%. Но это будет далеко не самый лучший текст, поверьте. В то же время совсем без водных слов обойтись невозможно, здесь, как и всегда в жизни, нужен баланс. Водность повышают:

  1. Местоимения: я, ты, мы, они и тд;
  2. Союзы: и, а, или и др;
  3. Предлоги;
  4. Междометья;
  5. И так далее, и тому подобное.

Кроме того, процент водности повышают такие выражения: “на сегодняшний день”, “на самом деле”, “ни для кого ни секрет” и т.д.

В обычном читаемом тексте, который специально не дорабатывали, водность обычно держится на уровне 30%.

6. Заспамленность

Знакомый Вам термин, означающий переизбыток ключевых слов в тексте.

Этот параметр считается одним из наиболее значимых текстовых факторов ранжирования. Вернее не так: именно за его превышение сайт может угодить под фильтр от поисковика.

Например, текст про дизельное топливо, который мы рассматривали выше – пример заспамленного текста.

Даже если такая страница будет в выдаче, то ни о каком качестве текста и ориентации на пользователя (а мы прежде всего пишем для него) здесь речи вообще не идёт.

Все эти и некоторые другие параметры текста проверяют с помощью целого ряда специальных сервисов, о которых я расскажу позже.

7. Заголовки

Основное название текста и его частей, в СЕО заголовки принято делить на H1-H6.

Принцип тоже, что и Вашей дипломной работе. Глава 2, параграф 3, пункт 4, подпункт 8. На практике редко кто использует заголовки ниже H3, в основном все ограничиваются H2, обычно этого более чем достаточно.

Самый важный заголовок текста это H1 – общее название всего текста. Его обычно располагают на самом верху страницы. И да, ключевой запрос в нём так же должен присутствовать.

Интересно. Заголовок H1 используется в тексте только один раз, а общее количество заголовков не ограничивается.

Заголовки помогают лучше воспринимать текст не только пользователям, но и поисковым машинам.

8. Метатэги

Элементы гипертекстовой разметки, часть программного кода, которая не видна пользователю.

Используют их для передачи сигналов поисковой системе, дескать, сюда, у нас релевантный контент.

Сейчас метатэги уже не так важны для ранжирования, как в старые СЕО-времена, но при прочих равных условиях поисковик отдаст преимущество ресурсу, где метатэги сформированы грамотно.

Для нас важны следующие виды метатэгов:

  • Title – заголовок страницы. В выдаче поисковика крупная синяя надпись или заголовок окна в Вашем браузере. У поисковиков есть ограничение на длину title. Яндекс – не более 80 знаков, Google – максимум 70.
  • Description – краткое описание страницы. Поисковик может использовать description для формирования снипета – описания страницы в результатах выдачи. Ограничение – примерно 200 символов.
  • Keywords – важные ключевые слова.Сейчас исследователи пишут, что keywords лучше вообще не заполнять. Я придерживаюсь мнения, что можно, но не более 3-5 фраз.

Кроме этих метатэгов существуют и другие, но они уже больше о внутренней оптимизации ресурса. Поэтому не будем на них останавливаться, а пойдём дальше.

Кто пишет СЕО-тексты?

Процесс написания текста не так прост, как кажется. Ведь пользователю нужно предоставить не только полезный контент, но и уникальный, с учетом всех требований поисковиков.

Кто пишет?

По идее созданием СЕО-текста должен заниматься специально обученный человек – профессиональный СЕО-копирайтер.

Однако в реальности большая часть текстов в рунете написана любителями, поскольку порог вхождения в эту сферу очень низок.

Есть компьютер с интернетом? Так ты копирайтер! В результате на выходе получается все что угодно, только не СЕО-текст. Поэтому советую отнестись к выбору специалиста серьезно и не скупиться на стоимость.

Где заказать?

Профессионалы, занимающиеся продвижением сайта, обычно уже имеют свой пул авторов, с которыми работают на постоянной основе.

Однако в большинстве случаев заказчики и копирайтеры ищут друг друга на биржах.

1. Advego.com

Одна из старейших и популярных бирж копирайтинга в рунете. Здесь Вы сможете найти авторов на любую тематику и любого уровня мастерства: от новичков до Гуру, которые проходят регулярную сертификацию.

Кроме собственно размещения заказа на advego можно купить уже готовый текст в магазине статей, заказать перевод, купить отзывы, репосты в соцсетях и много чего другого, даже стихотворение на заданную тему.

Цена: от 0,2$ за тысячу знаков.

2. Kwork.ru

Этот сервис отличается от других подобных ресурсов фиксированной минимальной суммой за заказ.

Помимо текстов на kwork.ru покупают и другие услуги, которые можно заказывать удалённо: дизайн, веб-разработка, услуги сео-оптимизации, запись аудио и видео, юридические консультации и много чего ещё.

Цена: от 500 руб. за задание.

3. Etxt.ru

Здесь, так же как и на advego, можно найти специалистов по копирайтингу, рерайтингу, корректуре, переводам или купить готовую статью на заданную тему.

Копирайтеров на бирже огромное количество, поскольку etxt.ru считается одной из лучших бирж для новичков. Соответственно конкуренция между авторами здесь велика.

Топ-пост этого месяца:  Траст сайта — что это такое, как его измерить в XTools, что на него влияет и как увеличить

Цена: стремиться к нулю (за тысячу знаков) из-за высокой конкуренции.

4. Text.ru

Известен благодаря своим бесплатным сервисам по анализу текстов без регистрации и смс. На text.ru можно проверить уникальность, провести сео-анализ текста, найти ошибки.

Копирайтеры на text.ru работают только с конкретными заказами. Здесь, так же как и на advego, есть возможность создать тендер на свой заказ и собрать отклики исполнителей.

Цена: от 25 руб. за тысячу знаков.

5. Textsales.ru

На этом ресурсе, напротив, основной упор сделан именно на продажу готовых статей, хотя есть возможность заказать статью с нужными параметрами, создав тендер.

Копирайтеров здесь тоже достаточно много, конкуренция между ними велика, поэтому цены держатся на среднем уровне.

Цена: от 20 руб. за статью.

6. Copylancer.ru

В отличие от advego и text.ru это закрытая биржа. То есть, автором здесь можно стать только после прохождения вступительного теста, что, по идее, должно гарантировать более высокое качество контента.

Ещё на copylancer можно купить готовую статью в магазине, но этот функционал не очень востребован, поэтому статей здесь немного.

Цена: 100-120 руб. за тысячу знаков.

7. Textbroker.ru

Закрытая биржа, которая позиционируется как “Бюро копирайтеров”. Чтобы попасть сюда, автору нужно хорошо постараться, и продемонстрировать свои достижения на какой-нибудь другой бирже.

Соответственно и качество текстов в общей массе повыше, хотя “таланты” умудряются пролазить и сюда. Сталкивался сам лично, правда, очень редко. В случае спорных вопросов администрация почти всегда на стороне заказчика.

Цена: до 1000 руб. за тысячу знаков.

Золотые правила

В большинстве случаев каждый сео-оптимизатор или копирайтер придумывает сам для себя собственные правила. Но я все таки выделил некоторые, самые часто встречающиеся. И осталось разобраться, работают ли они.

1. Ключи в точном вхождении

До сих пор священная корова многих олдскульных сеошников. Во многом действительно актуально, особенно Вы планируете зайти со своим текстом в ТОП-10.

Хотя по наблюдениям это больше относится к информационным запросам, чем к коммерческому сегменту. Сравните выдачу по запросам “инфобизнес что это” и “купить пластиковые окна”.

Пример ключей в заголовках

В случае с инфобизнесом первые 4 позиции занимают ресурсы, где запрос присутствует в title в чистом вхождении. А вот в случае с окнами всё не так однозначно.

Важно. Если ключ можно вписать в чистом вхождении, то это нужно сделать.

2. Ключи в заголовках и метатэгах

Как видно из предыдущего примера, желательно вписать главный ключ в Title и Description в виде, максимально близком к запросу.

Видел я, как некоторые авторы придумывают действительно хорошие, броские и яркие названия своих статей и пишут их в title, но без учёта вхождения главного ключа. Увы, эти статьи, скорее всего, будут далеки от ТОПа.

Ключи в заголовках

Кстати, то же самое касается и ключей в url — адресе страницы. Лишним не будет.

Достаточно вспомнить сравнительно недавний сбой в алгоритме Яндекса, когда по запросу “коап рф” (это про Кодекс об административных правонарушениях) на первой страницы выдачи находился пустой сайт без описания с одноимённым url – коап.рф.

3. Тошнота, уникальность, водность

Здесь тоже не всё однозначно. Особенно если говорить об уникальности, которой сложно добиться в некоторых тематиках, где требуется много цитировать, например, в текстах на юридическую тему: выдержки из закона нужно приводить точные.

Современный СЕО – текст должен быть ориентирован в первую очередь на людей, а уже потом на роботов, поэтому читабельность и простота изложения информации в приоритете.

Поэтому мой совет: проверяйте СЕО-тексты только на явный плагиат, такой, где воруют прямо целыми абзацами.

Больше внимания сейчас следует уделить другим факторам. На мой взгляд, хорошо подходит для этого бесплатный сервис turgenev.ashmanov.com, который проверяет текст комплексно: стилистику, удобочитаемость и технические требования.

4. Первый абзац должен “пинать”

Подразумевается, что первый абзац должен дать хороший пинок читателю, чтобы он “пролетел” весь текст.

По опыту знаю, что начинать новый текст бывает сложно, поэтому большинство авторов в первом абзаце “расписываются”, выдавливая что-нибудь в духе “ни для кого ни секрет, что ремонт в ванной комнате отнимает много сил”.

Есть известный приём, как сделать первый абзац лучше. Для этого начинайте писать текст, особо не задумываясь над вступлением. А когда работа будет окончена, вернитесь и перепишите первый абзац.

Возможно, шедевра всё равно не получится, так тоже бывает, но однозначно станет лучше. Я гарантирую это.

5. Уделите внимание дизайну текста

Да, да. Дизайну текста. Текст должен хорошо выглядеть. Про то, что статья должна быть структурирована и разбита блоки с помощью подзаголовков, знают вообще все. То же самое касается маркированных списков, которые:

  1. Должны встречаться минимум один раз;
  2. Быть умеренной продолжительности;
  3. С примерно одной длиной строки.

Однако есть ещё один важный момент, который многие копирайтеры упускают. Речь о размерах абзаца.

Очень плохо выглядит текст, где рядом находятся абзац в две строки и абзац в восемь строк. Исключения возможны, но лучше придерживаться стандартной длины в 2-6 строк (некоторые указывают 3-5 строк).

Есть ещё LSI-копирайтинг

LSI (latent semantic indexing) — скрытое семантическое индексирование.

Если коротко, то это такой способ написания текста, который должен убедить поисковые машины, что конкретная страница не просто набита ключевыми запросами, а содержит действительно полезную информацию.

Главное понятие LSI-копирайтинга — шлейфовые синонимичные запросы, связанные с темой статьи, близкие ей по значению.

Пример:
Основной ключ – “отдых на Байкале”.
Синонимичные ключи: “отдых на озере”, “отпуск на Байкале”, “каникулы на Байкале”

Вторая группа шлейфовых запросов, которые должны присутствовать в LSI-тексте — релевантные ключевые запросы, расширяющие выбранную тему.

Пример:
“Где лучше отдохнуть на Байкале”, “лучшие места для отдыха на Байкале”, “варианты отдыха на Байкале” и т.д.

В каждом конкретном случае нужно смотреть отдельно, но общий принцип таков.

Важно. Использовать синонимичные запросы – не значит “валить всё в одну кучу”.

Конкуренцию ключевиков никто не отменял. Например, если в тексте будут часто встречаться ключи из другой группы, хотя и близкой по смыслу, например: “книги о Байкале”, “фильмы о Байкале”, в итоге страница не попадёт в выдачу ни по одной группе запросов.

Однако LSI-копирайтинг — тема сама по себе достаточно объёмная, поэтому двигаемся дальше, а об LSI-копирайтинге поговорим в следующий раз.

Текст это не панацея

Думаю, что цель написания СЕО-текста Вам уже ясна – сделать так, чтобы сайт “понравился” поисковой системе, и она показала его на первых позициях в выдаче.

В принципе, раньше всё оно так и работало: заказываем СЕО-текст, прописываем правильные метатэги (об этом ещё поговорим), закупаем ссылок (а об этом лучше в другой раз) и вуаля: сайт в ТОПЕ, на него льётся трафик, все довольны!

Сейчас всё далеко не так радужно. Поисковики развиваются, конкуренты тоже не стоят на месте, и попасть в ТОП-10 с одними только СЕО-текстами и купленными ссылками по конкурентным запросам почти нереально.

Однако нельзя сказать, что использование СЕО-текстов больше не даёт никакого эффекта. При прочих равных условиях и в некоторых низко конкурентных тематиках ещё как даёт.

Поэтому рассмотрим, как протекает (или протекал) стандартный процесс создания СЕО-текста.

Подбор ключевых слов

  1. Некто (вебмастер) определяет по каким запросам продвинуть страницу сайта. Например, продаёте Вы межкомнатные двери. Яндекс. Wordstat подсказывает, что этой темой в Иркутске интересовался 581 человек. Заказываем текст.
  2. Некто составляет ТЗ для копирайтера, в формате: “Нужен текст на тему “Межкомнатные двери”. Ключи: “купить межкомнатные двери”, “купить межкомнатные двери в иркутске”. Вписать по 3 раза. Объём: 2000 символов. Цена: 25 рублей за 1000 знаков.
  3. Копирайтер пишет текст, используя примерно такие обороты: “Если Вы хотите купить межкомнатные двери в Иркутске, то Вы на правильном пути”. Было бы смешно, если бы не было так грустно.
  4. Некто размещает текст на сайт, обещая заказчику, что сайт влетит в ТОП, как ракетоноситель “Ангара” в плотные слои атмосферы.
  5. Сюрприз! На странице, которая находится в Яндексе на первом месте по запросу “купить межкомнатную дверь” вообще нет СЕО-текста.

Текст на сайте

Значит ли это, что СЕО-тексты больше не нужны? Отнюдь. Есть масса тематик, где без СЕО-оптимизации текста просто не обойтись.

Важно. Нужно делать это правильно, соблюдая баланс между требованиями поисковых систем и интересами пользователя.

Для этого нужно искать хорошего специалиста, который умеет не только вписывать ключи в нужном количестве, но и при этом не забывает про качество самого текста.

Пошаговая инструкция

И эта тема так же заслуживает отдельной статьи. Хотя бы потому, что такая инструкция нужна и заказчикам и копирайтерам. Но я постарался выделить самые основные моменты. Итак, поехали.

Шаг 1. Собираем ключевые запросы

Вот этот процесс лучше доверить профессионалам. Особенно, когда речь идёт о подготовке семантического ядра для большого коммерческого сайта.

Для этого открываем Яндекс.Wordstat и вводим туда предполагаемый запрос. Смотрим, сколько человек в месяц интересовались этой темой.

Здесь должны быть какие-то реальные цифры, в зависимости от вашей тематики. Не имеет смысла оптимизировать статью под запрос, который вводят 3-4 человека в месяц.

Важно. Есть понятие конкурентности ключевика. Не следует использовать слишком общие запросы, под них уже написаны сотни статей. Сузьте тему.

Шаг 2. Создаем ТЗ

Итак, запросы собраны, пришло время писать СЕО-текст. Для начала формируем ТЗ для копирайтера. Ну, или для самого себя, если планируете написать СЕО-текст самостоятельно.

Здесь на помощь приходят сервисы автоматического формирования ТЗ. Например:

По сути, они всё сделают за Вас, но возьмут за это немного денег. Например, Техзадатор берёт 4 рубля за одно ТЗ. На мой взгляд, сумма вполне подъёмная.

Шаг 3. Пишем (или ждем)

Находим исполнителя (список бирж копирайтеров уже был в тексте) или пишем самостоятельно.

Здесь всё “просто”: нужен экспертный, полностью раскрывающий тему текст без “воды”, с учётом технических требований и нужным количеством ключей.

Используем шлейфовые запросы, укладываемся в объём, не забываем про полезность статьи для пользователя.

Шаг 4. Проверяем

После проверки возможно потребуются корректировки, так что будьте к этому готовы. Из сервисов я рекомендую:

  1. Text.ru. Уникальность от 90% (100% хорошо, но не во всех тематиках);
  2. Advego/seo. Академическая тошнота до 9%, плотность по слову до 5%;
  3. Glvrd.ru. Для фанатов инфостиля. Вполне хватит 8 балов;
  4. Turgenev.ashmanov.com. Для тех, кто боится Баден-Бадена, не выше 4 балов.

Шаг 5. Читаем и перечитываем

Желательно вслух и через некоторое время. А лучше повторить процедуру несколько раз.

Тогда достигается некоторая объективность, появляется возможность взглянуть на текст “свежим взглядом”, найти ошибки, выявить разные несуразности и глупости.

Читать текст нужно при любом случае, хоть сами пишите, хоть у копирайтера заказываете.

Шаг 6. Оформляем

Некоторые авторы это делают одновременно с написанием текста. Например, я. Подзаголовки, списки, форматирование абзацев и вот это вот всё.

Однако если был порыв вдохновения (случается и такое) и строки буквально “лились из-под пера”, то можно отформатировать уже после того, как текст будет закончен.

Или еще один вариант – прописать в ТЗ конкретные требования по оформлению.

Тексты для роботов (ошибки)

По большей части ошибки, которые я встречаю в сео-текстах, связаны с тем, что некоторые копирайтеры и веб-мастера буквально отказываются эволюционировать.

Их немного, но они есть.

Второй момент: в рунете тонны статей, посвящённых seo-копирайтингу, и большая часть из них написана, в лучшем случае, 3-5 лет назад.

Поэтому разберём несколько “классических” ошибок сео-копиратеров, которые, справедливости ради, присущи всё же больше новичкам, чем профессионалам.

  • Ключи в прямом вхождении. Не злоупотребляйте ключами в прямом вхождении. Особенно, если это – “купить тележка металлическая Москва”. Используйте прямое вхождение уместно.
  • Высокая плотность ключей. Большое количество ключевых запросов в тексте – негативный сигнал для поисковой системы. Добавьте сюда ещё спам ключами в alt, набейте продвигаемыми запросами title и description и ловите фильтр от поисковика.
  • Короткий текст на информационной странице. Тексты “стандартного” объёма 2000 знаков давно уже не котируются. Если хотите зайти в ТОП со своей статьёй, ориентируйтесь минимум на 5000 знаков. Лучше на 10000 или больше.
  • Длинный текст на коммерческой странице. Если Вы только собираетесь продвигать свой интернет-магазин, то в каталоге хватит пары абзацев текста, лучше обратите внимание на расширение ассортимента.

Коротко о главном

Наверняка Вы сейчас выдохнули: “Наконец-то! Выводы!”. Разделяю Вашу радость. Поэтому буду краток.

  • Характеристики СЕО-текста: ключевые слова, тошнота, заспамленность, и т.д. Проверяют их с помощью специальных сервисов.
  • При написании СЕО-текста: не спамьте ключами, не увлекайтесь жирным шрифтом, следите за качеством текста, используйте заголовки.
  • Дополнительный материал по SEO-копирайтингу: читая статью о СЕО-копирайтинге, обращайте внимание на дату её публикации. Возможно, сведения там уже устарели.

И удачи Вам в этом нелегком деле. Обнял.

Спасибо!

Наш менеджер свяжется с Вами в ближайшее время!

Что-то пошло не так

Попробуйте повторить попытку

«На данный момент мы делаем ребрендинг сайта и он станет активным в ближайшее время.

Но Вам же нужно увеличение продаж уже сейчас?! Поэтому заполните форму справа и мы свяжемся с Вами для презентация услуги.»

1. Общие положения

1.1. Политика в отношении обработки персональных данных (далее — Политика) направлена на защиту прав и свобод физических лиц, персональные данные которых обрабатывает ИП Жестков Н. В. (далее — Оператор).
1.2. Политика разработана в соответствии с п. 2 ч. 1 ст. 18.1 Федерального закона от 27 июля 2006 г. № 152-ФЗ «О персональных данных» (далее — ФЗ О персональных данных»).
1.3. Политика содержит сведения, подлежащие раскрытию в соответствии с ч. 1 ст. 14 ФЗ «Оперсональных данных», и является общедоступным документом.

2. Сведения об операторе

2.1. Оператор ведет свою деятельность по адресу 664009, г. Иркутск, ул. Ядринцева, 1/9, 70.
2.2. Руководитель Жестков Никита Владимирович (телефон +7 (964) 111-8758) назначен ответственным за организацию обработки персональных данных.
2.3. База данных информации, содержащей персональные данные граждан РоссийскойФедерации, находится по адресу: mailigen.ru, in-scale.bitrix24.ru, mail.yandex.ru, in-scale.ru, vk.com, facebook.com, manychat.com.

3. Сведения об обработке персональных данных

3.1. Оператор обрабатывает персональные данные на законной и справедливой основе для выполнения возложенных законодательством функций, полномочий и обязанностей, осуществления прав и законных интересов Оператора, работников Оператора и третьих лиц.
3.2. Оператор получает персональные данные непосредственно у субъектов персональных данных.
3.3. Оператор обрабатывает персональные данные автоматизированным и не автоматизированным способами, с использованием средств вычислительной техники и без использования таких средств.
3.4. Действия по обработке персональных данных включают сбор, запись, систематизацию,накопление, хранение, уточнение (обновление, изменение), извлечение, использование,передачу (распространение, предоставление, доступ), обезличивание, блокирование,удаление и уничтожение.
3.5. Базы данных информации, содержащей персональные данные граждан РоссийскойФедерации, находятся на территории Российской Федерации.

4. Обработка персональных данных клиентов

4.1. Оператор обрабатывает персональные данные клиентов в рамках правоотношений сОператором, урегулированных частью второй Гражданского Кодекса Российской Федерацииот 26 января 1996 г. № 14-ФЗ, (далее — клиентов).
4.2. Оператор обрабатывает персональные данные клиентов в целях соблюдения норм законодательства РФ, а также с целью:
— заключать и выполнять обязательства по договорам с клиентами;
— осуществлять виды деятельности, предусмотренные учредительными документами ИПЖестков Н. В.;
— информировать о новых продуктах, специальных акциях и предложениях;
— информировать о новых статьях, видео и мероприятиях;
— выявлять потребность в продуктах;
— определять уровень удовлетворённости работы.
4.3. Оператор обрабатывает персональные данные клиентов с их согласия,предоставляемого на срок действия заключенных с ними договоров. В случаях,предусмотренных ФЗ «О персональных данных», согласие предоставляется в письменном виде. В иных случаях согласие считается полученным при заключении договора или при совершении конклюдентных действий.
4.4. Оператор обрабатывает персональные данные клиентов в течение сроков действия заключенных с ними договоров. Оператор может обрабатывать персональные данные клиентов после окончания сроков действия заключенных с ними договоров в течение срока,установленного п. 5 ч. 3 ст. 24 части первой НК РФ, ч. 1 ст. 29 ФЗ «О бухгалтерском учёте» и иными нормативными правовыми актами.
4.5. Оператор обрабатывает следующие персональные данные клиентов:
— Фамилия, имя, отчество;
— Тип, серия и номер документа, удостоверяющего личность;
— Дата выдачи документа, удостоверяющего личность, и информация о выдавшем его органе;
— Год рождения;
— Месяц рождения;
— Дата рождения;
— Место рождения;
— Адрес;
— Номер контактного телефона;
— Адрес электронной почты;
— Идентификационный номер налогоплательщика;
— Номер страхового свидетельства государственного пенсионного страхования;
— Должность;
— Фотография.
4.6. Для достижения целей обработки персональных данных и с согласия клиентов Оператор предоставляет персональные данные или поручает их обработку следующим лицам:
— менеджер по продажам
— руководитель проекта
— менеджер проекта
— маркетолог

5. Сведения об обеспечении безопасности персональных данных

5.1. Оператор назначает ответственного за организацию обработки персональных данных для выполнения обязанностей, предусмотренных ФЗ «О персональных данных» и принятыми в соответствии с ним нормативными правовыми актами.
5.2. Оператор применяет комплекс правовых, организационных и технических мер по обеспечению безопасности персональных данных для обеспечения конфиденциальности персональных данных и их защиты от неправомерных действий:
— обеспечивает неограниченный доступ к Политике, копия которой размещена по адресу нахождения Оператора, а также может быть размещена на сайте Оператора (при его наличии);
— во исполнение Политики утверждает и приводит в действие документ «Положение об обработке персональных данных» (далее — Положение) и иные локальные акты;
— производит ознакомление работников с положениями законодательства о персональных данных, а также с Политикой и Положением;
— осуществляет допуск работников к персональным данным, обрабатываемым в информационной системе Оператора, а также к их материальным носителям только для выполнения трудовых обязанностей;
— устанавливает правила доступа к персональным данным, обрабатываемым в информационной системе Оператора, а также обеспечивает регистрацию и учёт всех действий с ними;
— производит оценку вреда, который может быть причинен субъектам персональных данных в случае нарушения ФЗ «О персональных данных»;
— производит определение угроз безопасности персональных данных при их обработке в информационной системе Оператора;
— применяет организационные и технические меры и использует средства защиты информации, необходимые для достижения установленного уровня защищенностиперсональных данных;
— осуществляет обнаружение фактов несанкционированного доступа к персональным данным и принимает меры по реагированию, включая восстановление персональныхданных, модифицированных или уничтоженных вследствие несанкционированного доступак ним;
— производит оценку эффективности принимаемых мер по обеспечению безопасностиперсональных данных до ввода в эксплуатацию информационной системы Оператора;
— осуществляет внутренний контроль соответствия обработки персональных данных ФЗ «Оперсональных данных», принятым в соответствии с ним нормативным правовым актам,требованиям к защите персональных данных, Политике, Положению и иным локальнымактам, включающий контроль за принимаемыми мерами по обеспечению безопасностиперсональных данных и их уровня защищенности при обработке в информационнойсистеме Оператора.

6. Права субъектов персональных данных

6.1. Субъект персональных данных имеет право:
— на получение персональных данных, относящихся к данному субъекту, и информации,касающейся их обработки;
— на уточнение, блокирование или уничтожение его персональных данных в случае, еслиони являются неполными, устаревшими, неточными, незаконно полученными или неявляются необходимыми для заявленной цели обработки;
— на отзыв данного им согласия на обработку персональных данных;
— на защиту своих прав и законных интересов, в том числе на возмещение убытков икомпенсацию морального вреда в судебном порядке;
— на обжалование действий или бездействия Оператора в уполномоченный орган позащите прав субъектов персональных данных или в судебном порядке.
6.2. Для реализации своих прав и законных интересов субъекты персональных данныхимеют право обратиться к Оператору либо направить запрос лично или с помощьюпредставителя. Запрос должен содержать сведения, указанные в ч. 3 ст. 14 ФЗ «Оперсональных данных».

УТВЕРЖДАЮ
Н. В. Жестков
29.06.2020

Уважаемый пользователь. Любая информация, размещенная на сайте in-scale.ru, предназначена только для свободного изучения пользователями сайта. Администрация сайта прилагает все усилия для того, чтобы предоставить на этом сайте достоверную и полезную информацию, которая отвечает на вопросы пользователей сайта, но в то же время не исключает возникновения ошибок.

Ни при каких обстоятельствах Администрация Сайта in-scale.ru не несет ответственности за какой-либо прямой, непрямой, особый или иной косвенный ущерб в результате использования информации на этом сайте или на любом другом сайте, на который имеется гиперссылка с нашего cайта, возникновение зависимости, снижения продуктивности, увольнения или прерывания трудовой активности, а равно и отчисления из учебных учреждений, за любую упущенную выгоду, приостановку хозяйственной деятельности, потерю программ или данных в Ваших информационных системах или иным образом, возникшие в связи с доступом, использованием или невозможностью использования Сайта, Содержимого или какого-либо связанного интернет-сайта, или неработоспособностью, ошибкой, упущением, перебоем, дефектом, простоем в работе или задержкой в передаче, компьютерным вирусом или системным сбоем, даже если администрация будет явно поставлена в известность о возможности такого ущерба.

Вся информация предоставляется в исходном виде, без гарантий полноты или своевременности, и без иных, явно выраженных или подразумеваемых гарантий. Доступ к in-scale.ru, а также использование его содержимого осуществляется исключительно по вашему усмотрению и на ваш риск.

Сайт in-scale.ru — это проект, работающий без заключения каких-либо договорённостей или договоров между вами, пользователями данного сайта, администрацией, владельцами серверов, на которых он размещён, либо кем-то ещё, любым образом связанными с этим или родственными ему проектами, которые (договора) могут стать предметом прямых претензий.

Некоторые ссылки на in-scale.ru ведут к ресурсам, расположенным на сторонних сайтах. Данные ссылки размещены для удобства пользователей и не означают, что Администрация одобряет содержание других сайтов. Кроме этого, Администрация in-scale.ru не несет никакой ответственности за доступность этих ресурсов и за их контент. Это заявление относится ко всем ссылкам, представленным на in-scale.ru, и материалам всех веб-сайтов, доступных через баннеры и ссылки на веб-сайте по адресу in-scale.ru

В обязанности Администрации не входит контроль легальности передаваемой информации (любой, включая, но не ограничиваясь, информацией, передаваемой между пользователями, внутренней пересылки в виде различных ссылок, текстов или архивов), определение прав собственности или законности передачи, приема или использования этой информации.

In-scale.ru не гарантирует возможность приобретения или использования тех или иных товаров или услуг по ценам и/или на условиях, указываемых в рекламных блоках (текстах, баннерах).

Вы соглашаетесь с тем, что in-scale.ru не несет никакой ответственности за возможные последствия (включая любой ущерб), возникшие в результате каких-либо отношений с рекламодателями и продуктами с in-scale.ru

Администрация сайта in-scale.ru вправе отказать в доступе к сайту любому Пользователю, или группе Пользователей без объяснения причин своих действий и предварительного уведомления.

Администрация вправе изменять либо удалять ссылки на информацию, графические, звуковые и прочие данные, размещенные Пользователями на in-scale.ru, без предварительного уведомления и объяснения причин своих действий.

Любые торговые марки, знаки и названия товаров, служб и организаций, права на дизайн, авторские и смежные права, которые упоминаются, используются или цитируются на страницах in-scale.ru, принадлежат их законным владельцам и их использование здесь не дает вам право на любое другое использование. Если не указано иное, страницы in-scale.ru никак не связаны с правообладателями, и никто, кроме правообладателя, не может распоряжаться правами на использование материалов, защищенных авторским правом. Вы несете ответственность за использование этих и подобных материалов.

Пользователь соглашается с тем, что все возможные споры будут разрешаться по нормам российского права.

Бездействие со стороны Администрации в случае нарушения Пользователем либо группой Пользователей пользовательского соглашения не лишает Администрации права предпринять соответствующие действия в защиту интересов in-scale.ru позднее.

Все права на материалы, находящиеся на in-scale.ru, охраняются в соответствии с законодательством ЕС и РФ, в том числе, об авторском праве и смежных правах.

Если в соответствии с действующими законами какие-либо условия будут признаны недействительными, остальные условия остаются в полной силе.

Все высказывания и примеры на сайте in-scale.ru по поводу увеличения, получения доходов, прибылей или/и результатов, уже размещенные или которые будут размещены на ресурсе, — всего лишь предположения по поводу предстоящих или текущих заработков, доходов, результатов поэтому не являются гарантией их получения. Если предположительное Вы считаете гарантированными, то также берете на себя все риски по их неполучению.

Если указывается конкретная сумма заработка или конкретный результат у лица или лиц, которые занимаются бизнесом, то это не гарантирует лично Вам такого же дохода при организации аналогичного предпринимательства. Вы принимаете как факт, что можете не получить подобных сумм заработков или/и результатов.

Все вопросы, размещенные на данном сайте и связанные с получением доходов и прибылей, не могут приравниваться к средним величинам.

Не существует также гарантий, что чей-либо опыт, касающийся предпринимательской деятельности, заработков, доходов или/и результат, можно использовать как указание к действию, которое может дать желаемые финансовые результаты.

Вся наша продукция и услуги созданы с образовательной и ознакомительной целями.

Посетители нашего сайта, пользователи продукции или услуг опираются на свой опыт, здравый смысл и полностью рассчитывают на свои силы, принимая решение заниматься интернет-бизнесом или любым другим видом предпринимательской деятельности.

Администрация in-scale.ru в любое время вправе внести изменения в Правила, которые вступают в силу немедленно. Продолжение пользования сайтом после внесения изменений означает ваше автоматическое согласие на соблюдение новых правил.

Данный документ гласит о том, что вы даете свое согласие на то, что ИП “Жестков Н.В.”, команда ресурса in-scale и сам сайт in-scale.ru не несёт ответственность за ошибочно принятые Вами решения по поводу доходов, прибылей, способов ведения бизнеса, продукции тренинг-центра, предоставляемых услуг или других материалов, что размещаются на данном сайте: текстовой, аудио и видео информации.

Заполняя форму подписки на сайте in-scale.ru, Вы соглашаетесь с политикой конфиденциальности проекта, а также с другими положениями:

1. Подписчик дает бессрочное согласие на обработку всех персональных данных, предоставленных на домене in-scale.ru

2. Подписчик не возражает против получения e-mail, смс уведомлений информационного и рекламного характера о предстоящих акциях, изменениях на проекте, иных событиях с домена in-scale.ru или от сообществ vk.com/in_scale, facebook.com/inscalerus

3. Подписчик может отписаться от информационной рассылки проекта In-scale в любое время по своему желанию при помощи специальной гиперссылки, а также обратившись в службу поддержки по адресу info@in-scale.ru и попросив удалить его контакты адрес из нашей подписной базы.

После получения администрацией сайта in-scale.ru такой просьбы, e-mail адрес или аккаунт в социальных сетях будет удален из базы в течение 72 часов, кроме выходных и праздничных дней.

ИП “Жестков Н.В” гарантирует полный возврат средств за приобретенный цифровой продукт по первому требованию клиента.

Срок гарантийного периода для всех цифровых продуктов составляет 7 календарных дней с момента оплаты.

Для того, чтобы запросить возврат денежных средств за определенный продукт обратитесь на info@in-scale.ru . Все заявки рассматриваются в течении 72 часов, кроме выходных и праздничных дней.

Возврат денежных средств осуществляется путём перевода необходимой суммы на один из электронных кошельков (WebMoney, Яндекс.Деньги), либо на карту VISA/MASTERCARD в пределах России. Длительность транзакции – от 1 до 5-х банковских дней после отправки денег.

Семантический анализ текста

Семантический анализ текста

Данный семантический анализатор проводит анализ основных SEO-параметров текста, таких как: длина текста, количество слов, анализ плотности ключевых слов (тошнота), вода в тексте (водность). Текст для семантического разбора можно скопировать с сайта источника и вставить в поле для анализа, либо указать адрес сайта и анализатор автоматически подгрузит контент указанной страницы.

Дополнительно имеется возможность анализа текста страницы без учета мета-тега NOINDEX, запрещающего поисковой системе Яндекс учитывать указанный текст при ранжировании.

Для визуализации распределения слов в тексте строится график, при помощи которого производится оценка естественности текста по закону Ципфа, основанного на частотном анализе вхождения слов в текст. Подробнее см. в Википедии.

Добавить комментарий