Как делать контент для людей, а не поисковых систем

Сообщения
471
Реакции
97
Сайт
s1.horrorfilm.top
6 лет назад команда PROактивных молодых людей решила создать маркетинговое агентство DigitalMust. Вооружились знаниями, купили симпатичный цветок в офис и начали искать первых клиентов.

Мы фанаты максимально точечного подхода к digital. Никакой стагнации и однотипных схем. Для каждой компании делаем собственную стратегию продвижения и далее превращаем ее в план, который можно пощупать.

Наше агентство сфокусировано на аналитике, perfomance-маркетинге, SMM и SEO-продвижении. О последнем сегодня и поговорим.

Одна из важных частей продвижения в поисковых системах — это контент. Активный переспам текста несвязанными между собой ключевыми словами остался позади. Сейчас у поисковиков в приоритете экспертные статьи с многоуровневой структурой. А если еще и дополнения в виде таблиц, графиков и списков есть, то сразу оценка 10 баллов. Все для пользователя, ведь LSI-тексты — это контент, который будут читать именно люди, а не роботы.

Между Пандой и Баден-Баденом: предыстория LSI​


История интернета — это долгая и захватывающая битва между оптимизаторами и поисковыми системами за попытку вывести страницы с текстовым контентом в ТОП. И сдвиг произошел. Примерно 10 лет назад нечитаемые SEO-простыни уступили место полезным LSI-статьям.

Развитие искусственного интеллекта привело к появлению «умных» алгоритмов. Никто не знает, когда именно был скачок и машины научились глубоко анализировать семантику. По мнению опытных копирайтеров это могло произойти в конце первого десятилетия нынешнего века. В тот период времени интернет был переполнен статьями, туго нафаршированными ключевыми словами.

SEO-копирайтинг бывает бессмысленным и беспощадным:
  1. ключи в заголовке, мета-тегах, подзаголовках, основном тексте
  2. использование прямого вхождения в первых 100 символах
  3. небольшой объем
Пример из прошлого. Человек решил позавтракать и в Гугле ввел «рецепт блинов». Первый же текст в поиске начинается словами «рецепт блинов на молоке», что на 100% соответствует запросу пользователя.

Пользователь кликает по ссылке, но почему-то попадает на сайт с навязчивой рекламой и рецептом борща с пампушками. Вебмастер получил деньги за увеличение трафика на сайте, пользователь получил негативный опыт, рекламодатели пожали плечами — мол, бывает. Довольны остались не все.

Слом системы произошел в 2011 году, когда Google выкатил первую «Панду» — инновационный поисковой алгоритм, который произвел радикальные изменения в выдаче. Глобальная паника, последовавшая за ним, показала команде it-гиганта, что они двигаются в правильном направлении. В 2013 миру представили фильтр «Колибри» и стало окончательно ясно: правила изменились.

Яндекс не отставал: после ковровых бомбардировок методом АГС российская компания перешла к «Палеху» и «Королеву». В 2017 появился главный враг всех оптимизаторов — «Баден-Баден», который сдает ЕГЭ по русскому лучше большинства выпускников.

Если вы могли подумать, что машины научились думать, то нет — этого не произошло. Однако благодаря возросшей мощности они начали анализировать большие массивы данных, учитывать не просто ключи, но их словоформы, тематические слова, синонимический ряд и похожие запросы. Оптимизаторы приспособились. Так и появился LSI-копирайтинг.

Что из себя представляет LSI​


LSI — это аббревиатура от Latent Semantic Indexing, переводится как скрытое семантическое индексирование. Иногда используют латентное, но это некорректно по нормам русского языка. Нейросеть использует в работе LSA (Latent Semantic Analysis) — алгоритм, который ранжирует тексты не по отдельным ключам, а на основе факторного анализа логических взаимосвязей между словами (контекста). То есть попасть в выдачу с рецептом блинов, а на странице предлагать борщ и видеоигры уже не получится.

Простыми словами LSI — это способ индексирования текстов, основанный на LSA, «умном» алгоритме, который «говорит» на нормальном языке и всегда проверяет контекст.

В результате такого копирайтинга мы получаем экспертные тексты, которые раскрывают перед нами тематику и отбивают у пользователя желание возвращаться со своим вопросом в выдачу в поисках другого источника.

В идеале это настолько захватывающий и грамотно поданный контент, что пользователь дочитывает его до конца, комментирует и даже рекомендует в соцсетях. Если повезет, читатель надолго остается на сайте, переходит к следующим публикациям, подписывается или совершает какие-то необходимые вебмастеру действия.

Пример: пользователь пришел на страницу из выдачи по запросу «рецепт блинов». Он встретил не просто сухое перечисление ингредиентов, но подробное описание процесса приготовления с фото или видео, полезную информацию о калорийности и БЖУ. Вдобавок ему порекомендовали сковородку, рассказали о специальных смесях и начинках, предложили почитать больше о Масленице и знаменитых кулинарах. Тут все остались довольны.

В поисках ключей​


Есть два варианта создать экспертный контент, который понравится «умным» алгоритмам. Первый — взять интервью у профи или найти автора, который в теме. Второй — использовать LSI-ключи для построения скелета статьи.

Под такими ключами скрываются слова и короткие фразы, объясняющие и дополняющие запрос, который пользователь вбивает в поиске. Все вместе они формируют подходящее семантическое ядро.

Бесплатно собрать релевантное ядро можно тремя способами:

  1. подсказки от Яндекса и Google во время ввода ключевого слова в поиске
  2. «связанные запросы» или «люди ищут», располагающиеся внизу страницы выдачи
  3. известные сервисы Wordstat.Yandex и Google AdWords
Собранные слова необходимо отсортировать с учетом релевантности, чтобы в статью с рецептами случайно не попал спортивный инвентарь или топоним.

Важно помнить, что выдача зависит от региона и истории поиска авторизованных пользователей. Слова можно дополнить, проанализировав конкурентов. Также ключи можно собирать с помощью платных сервисов (WordTracker, Serpstat и другие). Процесс автоматизирован и занимает меньше времени. Любой каприз за ваши деньги, так сказать.

Пишем реально полезный LSI-текст​


Текст — основной инструмент продвижения. Чтобы написать глубокую экспертную статью, копирайтеру нужно получить подробное ТЗ и погрузиться в тему. Тогда собранная информация и семантическое ядро будут максимально релевантны выбранной проблеме.

Секрет: не существует чистого «текста для людей», LSI-копирайтинг всегда начинается с SEO-запросов.

Алгоритм написания текста:
  1. вокруг SEO-запроса сформировать тематическое ядро с LSI-ключами
  2. разработать структуру. Написать план будущей статьи, разбить текст на смысловые блоки, придумать заголовок первого уровня и подзаголовки
  3. прикинуть, какую информацию лучше подать инфографикой, найти видео или фото
  4. проработать введение и выводы
  5. равномерно распределить LSI-ключи по тексту. Рекомендуем основной запрос окружать дополнительными
Для контента очень пригодятся комментарии, цитаты, экспертные заключения. Сама статья должна быть написана копирайтером гладко, с соблюдение tone of voice. Не забываем и про маркетинговую составляющую. Все рекомендации, ссылки и советы должны быть естественно вписаны в текст.

LSI-текст — это все таки экспертный контент, поэтому необходимо тщательно проверять факты и опираться на официальные данные. Информация должна быть актуальной и уникальной не только по антиплагиату, но и по смыслу. У текста должна быть собственная структура и стилистика, копипаст сейчас мало интересен пользователям.

SEO и LSI: в чем разница​


Несмотря на заявления маститых гуру, LSI-тексты не свидетельствуют о смерти SEO, а скорее расширяют и дополняют функционал. Поисковая оптимизация прекратила использование устаревших методов и повернулась лицом к пользователю.

1658393600944.png

Бывает так, что статья соответствует требованиям, красиво оформлена, содержит тщательно собранные LSI-ключи, но не находит отклика в сердцах посетителей. Все дело в том, как она написана, ведь авторский слог никто не отменял. Сухой скучный стиль, грамматические и орфографические ошибки, неинтересное изложение: все это отпугивает избалованного выбором читателя.

А есть ли плюсы​


LSI — самый продвинутый способ понравиться не только людям, но и машинам.

Из плюсов можно отметить:
  1. тематическое ядро поднимает информативность контента
  2. на LSI-статьях дольше задерживаются, чаще дочитывают и не бросают, что значительно снижает процент отказов
  3. у всего ресурса повышается ранжирование по низкочастотникам и хвостам
  4. появляются новые пользователи
  5. меньше риска попасть под фильтры за спам
Экспертный контент нравится посетителям. Они готовы его расшеривать, рекомендовать знакомым, использовать в обычной жизни. Возрастает ценность LSI как продающего инструмента.

Однако есть и недостатки:
  1. поисковые алгоритмы не учитывают многозначность слов
  2. в отличие от людей, машины не оценят иронию и метафоры, а цитаты посчитают плагиатом
  3. цена качественного LSI выше, чем бездумного SEO
Статья по канонам скрытого семантического индексирования — это не просто ключевые слова в окружении подходящей по смыслу семантики, украшенные списками. Так просто нейросети не обмануть, они научились «понимать» написанное, анализируя за микросекунды огромные пласты данных.

Рубленые фразы и оптимизаторские штампы не пройдут: такая статья не понравится читателю. Он быстро уйдет, а робот поймет, что с пользовательскими факторами что-то не так, и понизит страницу в выдаче.
 
Последнее редактирование модератором:
Назад
Верх Низ