Вы еще не используете LSI копирайтинг: срочно читайте статью

Здравствуйте, друзья. Как всегда, когда мне удается узнать что-то интересное, то я делюсь этим с вами. Вот и сегодня хочу поднять очень важную тему для любого владельца сайта или блога. Думаю, эта статья многих удивит, а некоторых и ошарашит. Речь пойдет LSI копирайтинге, об оптимизации страниц, и о том, правильно ли мы её делаем. Да и вообще – надо ли ее делать. Тема интересная и важная, так что советую дочитать и не полениться оставить своё мнение в комментариях.

Начну с самого начала, так будет понятнее.

Как делается типичная SEO-оптимизация

Как оптимизировать страницы, знают многие, да и я про это тоже писал. Обычно все поступают так:

  • Придумывается тема статьи
  • Под эту тему в Яндексе или Google подбираются несколько подходящих запросов – ключевых фраз.
  • Пишется статья с соблюдением правил оптимизации – с употреблением ключей в заголовках, подзаголовках, равномерным их распределении, с учетом плотности ключей на странице и т.п.
  • При публикации статьи ей прописываются правильные метатеги с ключевыми фразами – заголовок, описание, ключи.

Суть проста – найти подходящий запрос и навтыкать его в текст. Все это делается оптимизаторами (и блогерами тоже) из года в год уже очень долго. Статья с напичканными в нужных местах ключевыми фразами считается очень “крутой” и ей пророчатся лучшие позиции в поисковиках. А сайту, соответственно, предсказывается толпа посетителей.

За долгие годы эти правила стали незыблемыми, многочисленные гуру SEO-оптимизации всех научили так делать. Но если мы все такие грамотные и все делаем правильно, почему тогда наши сайты и блоги с таким трудом попадают в ТОП поисковиков, да и то по каким-то странным запросам, а не тем, под которые мы оптимизировали? Да потому что мы забыли одно – поисковики постоянно совершенствуют и усложняют свои алгоритмы!

Теперь, чтобы вы поняли, о чем речь, и связали проблему и следствие, приглашаю посмотреть на работу нашего главного врага и друга в одном лице – поисковик. И на его эволюцию. А потом я расскажу, что такое это загадочное LSI и почему оно так важно.

Как менялись алгоритмы ранжирования в последнее время

Как всегда, Google впереди планеты всей, и там же все и зародилось. А остальные поисковики, в том числе и Яндекс, рано или поздно только перенимают их приемы работы. Так что смотреть будем на Google, там нужные нам вещи уже работают.

Рекомендуется к прочтению  Правила профессионального SEO-копирайтинга

Итак, началось все с того, что в 2011 году программисты Google ввели свой знаменитый фильтр Panda. Панду эту многие блогеры испытали на себе, когда попали в бан. А суть этого новшества была в том, чтобы оценивать, насколько посетители сайта вовлекаются в его изучение. То есть, если сайт неинтересный, некачественный или вообще – откровенное – г-но, то его позиции резко понижались, а то и вообще его блокировали в выдаче. Так поиск Google намного подчистил результаты своей выдачи и на первые места стали выходить сайты с реально качественным и полезным контентом.

Алгоритм Панда от Google

Сами разработчики сказали, что алгоритм Панды был самым выдающимся новшеством с 2001 года, и он намного улучшил качество поиска. Но усложнил жизнь владельцам сайтов и блогов – попасть в ТОП стало труднее. С другой стороны, это дало работу толпам оптимизаторов и копирайтеров. Тогда и заговорили о важности поведенческих факторов. Но это еще не все, сказка на этом не заканчивается.

Наступил 2021 год и программисты Google не угомонились, а ввели еще один фильтр, под названием Hummingbird – то бишь Колибри. И вот здесь мы вплотную подошли к понятию LSI.

Что делает Колибри? О, это целый прорыв в область искусственного интеллекта! Этот алгоритм умеет анализировать и ранжировать сайты не по ключам, а по смыслу и содержанию. Ему глубоко наплевать, какие ключи натолкал в текст оптимизатор – он смотрит на суть этого текста! Он же срабатывает, когда мы в поиске пишем длинные путанные запросы, а поисковик по ним находит именно то, что нужно. Приведу простой пример, который вы можете легко повторить.

Если я напишу в Google запрос “Как испечь блины” или “Как сделать блины”, он выдает горы кулинарных сайтов. где как раз и можно найти всякие рецепты блинов. Но если я пишу “Где взять блины”, то мне выдаются сайты разных спортивных магазинов и спортклубов, потому что здесь Google слово “блин” расценивает как блин от штанги или гантелей!

Откуда он знает, что какие-то блины пекутся, а какие-то надеваются на штангу и какие можно где-то взять, а другие можно только испечь??? И хоть вы тресните, оптимизируя свою статью под слово “блин”, ваша страница никогда не выйдет в ТОП по обоим этим запросам, хотя слово это есть в обоих! Потому что вы можете написать либо про те блины, которые стряпают, либо про те, которые надевают на штангу, либо про какие-то другие. Фильтр Колибри покажет вашу страницу только некоторым искателям “блинов”. Он “знает”, про что именно вы написали, а ключи ваши ему побоку. И даже если вы напишете в запросе другие слова, поисковик может заменить их на близкие по смыслу и все равно выдаст то, что нужно. Вот так вот.

Рекомендуется к прочтению  Как составить семантическое ядро

Кстати, Яндекс тоже вот-вот введет подобный алгоритм, работа над этим идет, и об этом давно шумят. А теперь переходим к самому главному

Что такое LSI и почему оно так важно

Вообще, понятие LSI обозначает Latent Semantic Indexing, то есть латентно-семантическое индексирование. Если говорить простым языком, то Google теперь, когда просматривает и индексирует ваши страницы, не смотрит на ваши хитро расставленные для него ключи. Он оценивает страницу широко, так же, как ее читает человек – анализирует ее смысл и содержание, притом одинаково учитываются и слова с похожим смыслом, и синонимы, и прочие неочевидные вещи. Помните пример с блинами? Что это означает конкретно для нас, владельцев сайтов?

А то, что оптимизировать статьи по прежним правилам сейчас бесполезно, и даже вредно – бан за переспам никто не отменял. А те, кто кричат за прежние правила SEO-оптимизации, просто отстали от жизни, в отличие от поисковиков. Или старые правила – это их хлеб. Сейчас же наступают, да что там говорить, уже наступили, времена LSI – копирайтинга, то есть написания статей по новым правилам, с учетом правил LSI и работы Колибри. Вот только Яндекс еще введет свои наработки, и тогда многие сомневающиеся будут выброшены из поиска. Так что будьте более разумны и действуйте гибче, уже сейчас. В конце-концов, даже один Google дает половину трафика, а это немалая доля. Если учитывать правила LSI, то трафик можно поднять намного.

Подбор ключевых запросов, максимально подходящих к теме статьи, низкочастотных.

Использование ключей в статье в неизменном виде всего 1-2 раза, в других местах заменять ключевые слова на похожие по смыслу или синонимы. Например, выражения “купить стиральную” и “приобрести стиралку” для Google равнозначны, алгоритм Колибри его поймет и даже повысит рейтинг за разнообразие.

О разнообразии – обязательно надо следить за тошнотой теста. Чем меньше тошнота – тем больше разных слов используется, и это приветствуется. Заменяя слова синонимами, даже ключевые слова, вы понижаете тошноту и увеличиваете авторитет страницы в глазах поисковика.

Рекомендуется к прочтению  Как правильно вписывать ключевые слова?

Вся статья должна быть по одной теме, все должно “играть” вокруг основного ключа. Ключ “купить шины Ижевск” в статье про мобильники уже не прокатит, даже если его вставить 20 раз.

Вот, примерно так. К чему это приведет:

  • Вы получите хорошую, очень релевантную статью по одной конкретной теме. Ее будут читать только заинтересованные посетители, а значит – улучшатся поведенческие факторы.
  • Страница может выйти в ТОП не по одному запросу, а по десяткам, притом самых разных, но близких по смыслу. Например, вашу статью про стиральную машину могут увидеть и по запросу “купить стиралку”, и по “купить автомат”.
  • Страница, а вместе с ней и весь сайт получит большую благосклонность и доверие поисковика и резко пойдет вверх.

Вот, вкратце, и все, что я хотел сказать про LSI. Почему это именно так и не иначе, и верю ли я сам в то, что написал? Да, верю. Это доказывается хотя бы тем, что некоторые страницы этого самого блога попали в ТОП по самым разным запросам, и даже совсем не по тем ключам, которые я сам в них прописывал. Просто поисковик решил, что другим запросам содержание этих страниц больше соответствует. Я долго ломал голову над тем, почему это так, пока не узнал про LSI и алгоритм Колибри. Да и другие моменты заставляют задуматься над тем, что старые правила уже не действуют. Поисковые алгоритмы стали умнее и неудивительно – тот же Google в последнее время не на шутку увлекается разработками в сфере искусственного интеллекта. И эти разработки мы начинаем ощущать на себе через ранжирование наших сайтов.

А копирайтерам совет – очень скоро SEO-копирайтинг в привычном виде умрет, пора осваивать LSI-копирайтинг, будущее за ним. И не такое уж оно далекое, это будущее, возможно, местами оно уже наступило. Задумайтесь об этом. А вот как писать статьи, которые бы удовлетворяли правилам LSI – про это я еще напишу, так что подписывайтесь на новости блога, узнаете сразу же, как только статья будет готова. Там тоже много хитростей, так что не все так просто, как хотелось бы.

Нажмите, чтобы оценить пост!
Спасибо!

Kopiraitery.ru