Алгоритмы ранжирования Google 2024. Основное из слива данных поисковика.

Алгоритмы ранжирования Google 2024. Основное из слива данных поисковика. Google

Недавно в сеть случайно слили документацию к API для Google, которая содержит более 14 тыс. функций, названий факторов ранжирования и описания к ним. Список с расшифровкой всех пунктов я составил в недавней статье, a в этой статье я хочу подробнее рассмотреть некоторые важные факторы и дать несколько советов по SEO, чтобы целевой сайт смог понравиться поисковой системе, и получил свой билет к ТОП-10, но не факт, об этом далее…

Ложь Google раскрыта

Параметр авторитетности сайта работает, иными словами, Траст в Гугле существует, это подтвердилось из документации, и теперь все споры на эту тему неактуальны. Траст сайта является решающим фактором для успешного продвижения сайта в поисковой выдаче последние несколько лет.

Google активно использует поведенческие факторы ранжирования везде. Официальные представители компании отрицали, что при ранжировании используются ПФ и Траст, но слитые документы говорят об обратном. Гугл собирает абсолютно все поведенческие факторы из поисковой выдачи, также он отслеживает действия пользователей через браузер Google Chrome, YouTube, Карты и прочие сервисы.

Отслеживание метрик и ПФ

Самое первое, что отслеживает поисковик — это CTR вашего сайта в поисковой выдаче. Если на сниппет не кликают, то позиции будут проседать.

Далее, учитывается доля длинных кликов, это когда пользователь ввёл запрос, зашёл на сайт из выдачи и вовлёкся в контент, проведя на страницах продолжительное время. Причём для каждой тематики нужное минимальное время определяется по-разному и будет уникальным: для сайта с услугами эвакуатора одно, а для массажного салона или сайта для похудения — другое.

Основная задача вебмастера: как можно дольше удержать посетителя на сайте.

Пользователь должен провести определённое время на той странице, на которую зашёл из поиска, а потом ещё перейти на другие страницы, так что внутреннюю перелинковку нужно делать с умом, а контент интересным и полезным.

Если пользователь делает «склик» — заходит на сайт из выдачи, и закрывает вкладку сразу же, потому что понял, что контент на странице не отвечает его запросу или просто некачественный, то Google понижает позиции сайта со временем, это явно указано в документации. Но далеко не все клики одинаково влияют на факторы ранжирования. Какие-то влияют меньше, а какие-то больше.

У Google есть отдельный алгоритм защиты от Клик-спама. Он разделяет пользователей на две группы: доверенные и недоверенные. Доверенные пользователи обычно имеют обширную историю просмотров в браузере, куки, история поведения, а у недоверенных её нет или её недостаточно. Соответственно, максимальный вес клика у доверенных пользователей, именно по-этому многие чёрные SEO-шники не могут накрутить поведенческие факторы в Google, поисковик понимает, что кликает бот и не учитывает его действия.

Получается, что для накрутки ПФ придётся покупать аккаунты с историей или делать её самому, что очень долго, и не факт, что такой аккаунт попадёт в доверенную группу.

Алгоритм NavBoost и ПФ

Судя по слитой документации за поведенческие факторы отвечает алгоритм NavBoost, который оказывает серьёзное влияние на ранжирование.

Что можно сделать на практике, чтобы приручить этот алгоритм?

Нужно делать максимально релевантные Тайтл и Дискрипшн к статье, разбавляя их кликбейтами. Таким образом, выигрывается процент кликов среди конкурентов в поисковой выдаче. Как только вы привлекли посетителя на ваш сайт, он должен заострить внимание на качественных первых абзацах, которые ещё можно назвать первым экраном, и продолжил читать информацию на странице (второй экран). Это нужно прорабатывать, пользователю необходимо дать понять, что он нашёл то, что ему необходимо, статья должна закрывать его интент.

Пользователь ни при каких условиях не должен возвращаться с вашего сайта обратно в поисковую выдачу, иначе алгоритмы понизят вас в ранжировании.

Читайте так же актуальную информацию о факторах, которые влияют на Траст сайта.

Песочница Google

У Google есть песочница для новорегов или молодых сайтов. Гугл действительно понижает молодые сайты в ранжировании и не даёт им продвигаться с целью защиты от ссылочного спама.

Google считает, что на новых доменах могут быть размещены спамные документы, которые стараются манипулировать выдачей.

Параметр из документации HostAge отвечает за учёт домена с первого посещения его роботом Гугла.

Кейс для вебмастеров: Если вы запускаете новый сайт, и работа над ним будет затянута надолго, то лучше создать для начала небольшой сайт на WordPress или Tilda, открыть его для индексирования в поиске. Робот Гугла сделает обход, и с этого момента время будет работать на вас.

Обратные ссылки на сайт

Ссылки всё ещё являются одним из факторов ранжирования, качество обратной ссылки напрямую зависит от качество Главной страницы донора.

Вывод: покупать много ссылок с мусорных сайтов не имеет никакого смысла.

Хотя, эта информация и так давно была известна всем SEO-специалистам.

Вес, который ссылка передаёт вашему сайту будет зависеть от ПФ донора и кликов по этой ссылке, как в Яндексе. Теперь при закупке ссылок на различных биржах нужно тщательнее отбирать сайты, всячески их проверяя.

  • Google разделяет ссылки на спамные и неспамные, и у них есть свой классификатор.
  • Также Google учитывает процент таких ссылкок в анкор-листе сайта.
  • Google учитывает скорость прироста ссылок на сайт.

Ссылочный взрыв оказывает негативное влияние на ранжирование в поисковике.

Для новорегов присутствует некий фактор, который защищает от пессимизации за большой объём внешней ссылочной массы.

Самые первые внешние ссылки могут быть анкорными, и за этим не последуют санкции.

Скорее всего, в компании Гугл решили, что поисковик не должен понижать молодые сайты, которые запускаются с поддержкой большой PR-компании, это расценивается как белое продвижение.

Для Google ссылки со СМИ-ресурсов являются хорошими и трастовыми.

Самое интересное, что для сайтов, у который очень высокий Траст все спамные-анкоры признаются неспамными.

Иными словами, если у вас есть трастовый сайт, то вы можете покупать спамные ссылки и всё будет прекрасно для ранжирования.

Вывод: лучше разместить несколько ссылок с авторитетных сайтов, чем кучу ссылок с сайтов с некачественным контентом без трафика.

Ссылки должны вести на Главную страницу акцептора.

Метрика оценки качества сайта и контента

Помимо авторитетности сайта, который, так сказать, работает глобально, есть метрика поведенческих факторов, но к этому всему добавляется отдельный алгоритм ранжирования, который учитывает качество всех статей на сайте!

Наличие некачественного контента будет оказывать отрицательное влияние на ранжирование страниц с качественным контентом.

Соответственно, нужно перерабатывать или удалять старый некачественный контент.

Каждая страница оценивается отдельно на основе взаимодействия пользователей. Пользователь должен быть удовлетворён той информацией, на которую он наткнулся из поиска, перейдя на ваш сайт.

Google пытается связать автора с компанией и привязать его к всем его публикациям. Поисковик отлично понимает, кто автор контента той или иной статьи на страницах, как в рамках одного сайта, так и глобально, во всём интернете!

Гугл старается прилинковать автора ко всем его публикациям в сети.

Остаётся только дать понять Гуглу, что ваш автор является экспертом в своей нише, и постараться связать автора с вашими статьями на сайте, и тогда алгоритмы дадут вам из нутры больше трафика.

Контент

Мета-теги на страницах сайта всё ещё крайне важны для продвижения: Title и Description влияют на ранжирование.

Google умеет определять темы и микроподтемы в каждой статье.

С помощью технологии NLP поисковик понимает, насколько ваш контент закрывает все темы и подтемы в рамках вашей статьи.

NLP (Natural Language Processing, обработка естественного языка) — это область искусственного интеллекта и компьютерных наук, которая фокусируется на взаимодействии между компьютерами и человеческим (естественным) языком. Основная цель NLP заключается в том, чтобы позволить компьютерам понимать, интерпретировать и отвечать на текст и речь на таком же уровне, как и человек.

Ключевые задачи NLP включают:

  1. Автоматический перевод: Преобразование текста или речи с одного языка на другой.
  2. Анализ текста: Извлечение значимой информации из текста, такой как имена людей, места, даты и т.д.
  3. Классификация текста: Определение темы или категории текста, например, классификация новостей по темам.
  4. Обработка естественного языка в диалоговых системах: Создание чат-ботов и виртуальных ассистентов, способных понимать и отвечать на вопросы пользователей.
  5. Сентимент-анализ: Определение эмоциональной окраски текста, например, позитивный, негативный или нейтральный тон.
  6. Распознавание речи: Преобразование устной речи в текст.
  7. Порождение текста: Автоматическое создание текста на основе заданных параметров или данных.
  8. Поисковые системы: Улучшение поиска информации с учетом семантики запросов и документов.

Основные подходы и методы в NLP:

  1. Лингвистические правила: Использование грамматических и синтаксических правил для обработки текста.
  2. Машинное обучение: Обучение моделей на больших объемах текстовых данных для выполнения различных задач NLP.
  3. Нейронные сети и глубокое обучение: Использование сложных моделей, таких как рекуррентные нейронные сети (RNN) и трансформеры, для более точного и эффективного выполнения задач.

Современные методы NLP часто опираются на большие объемы данных и мощные вычислительные ресурсы для обучения моделей, что позволяет достигать высоких результатов в таких задачах, как перевод текста и распознавание речи.

Google умеет понимать, есть ли в вашей статье какая-то уникальная часть и личная точка зрения, или это просто обычный рерайт, что может стать маловостребованной информацией, и такое даже в индекс не попадёт, особенно если рерайт сделан не руками, а с помощью нейросети ChatGPT.

Можно «очеловечить» сгенерированный текст, но не факт, что поисковик его пропустит и будет хорошо ранжировать, хотя, это больше относится к каким-то частным случаям. Всегда можно написать что-то «от руки», тем самым разбавив AI-текст уникальностью.

Google умеет понимать, когда страница обновлялась, за это отвечает параметр Significant content change. Иными словами, если вы просто меняете дату на странице, то это не прокатит, нужно серьёзно обновлять контент.

Нужно изменить существенный объём статьи, чтобы Google понял, что контент действительно качественно обновился (с учётом всего, что перечислено выше в статье).

Свежесть контента — это составная часть качества контента. Старый контент может перестать считаться качественным.

Вывод:

  • Для того, чтобы попасть в ТОП нужно закрыть все микротемы в статье. Проведите текстовый анализ, смотрите, что пишут конкуренты, добавляйте всё в свою статью.
  • Закрывайте интент пользователя, решайте ту задачу, за которой он пришёл, отвечайте сполна на его вопрос, иначе статья будет считаться неполезной и не будет занимать высокие позиции в топе. Именно для этого Google учитывает вовлечённость пользователя в контент.
  • Представляйте контент с уникальной точки зрения.
  • Обновляйте контент каждые 3-6 месяцев. Для очень конкурентных тематик каждые три месяца, а для менее конкурентных каждые шесть месяцев.

Не верьте официальной информации от Google

Не стоит верить никаким словам официальных представителей компании Google по поводу ранжирования и работы алгоритмов.

Их много раз поймали на лжи. Они отвечали под присягой во время суда, и давали ложные показания о работе поисковика.

Алгоритмы ранжирования Google 2024. Основное из слива данных поисковика.
Алгоритмы ранжирования Google 2024. Основное из слива данных поисковика.

Ссылка на статью о суде.

Они используют поведенческие факторы, следят за пользователями через браузер, они заявляли, что нет никакой песочницы, что все сайты равны, но по факту оказалось, что молодые сайты душатся в поиске. Утверждали, что Траста сайта не существует. Получается, что Траст ни только есть, но ещё и существует несколько подвидов этого параметра! Утверждали, что роль ссылочных сигналов снижается, но в итоге появилось больше факторов антиспама ссылочной массы.

Гугл имеет белые списки сайтов, которых повышает в ранжировании!

Есть чёрные списки тематик, которые никогда не попадут в поиск. (сайты про ковид, сайты про американские партии, которые нерукопожатные, сайты с клубничкой.)

Подробный список метрик можно посмотреть в этой статье.

Вступайте в наш телеграм канал
Аватар
Админ Вячеслав

Web-мастер и SEO-специалист с 2016 года.
Занимаюсь борьбой за выживание с алгоритмами поисковых систем.
Нельзя просто так взять и продвинуть сайт в ТОП.😆

Делаем-сайт.ru
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии