Обновление поисковых алгоритмов Google Core Updates: что происходит и что с этим делать

Поисковая оптимизация
Разбираемся, какие сайты пострадали после апдейта и почему, что с этим делать.

В августе 2018 года Google запустил масштабное обновление основного алгоритма, в результате которого потеряли трафик многие медицинские проекты, крупные ресурсы. В SEO-сообществе этот апдейт назвали «медицинским», но, как оказалось, обновление затронуло также ресурсы в других тематиках. Это четко прослеживается в следующих крупных апдейтах в марте и июне 2019 года, в последнем обновлении, о котором сообщили 24 сентября. Что это значит для проекта, как сохранить позиции? Рассмотрим ситуацию подробнее. 

Что нужно знать об обновлениях алгоритмов Google 

Важно понимать, что обновления алгоритмов Google не направлены на отдельные сайты и страницы. Нельзя говорить о пессимизации, когда ресурсы понижаются в выдаче из-за запрещенных методов продвижения. Google Core Updates направлены на изменение и улучшение качества оценки контента поисковой системой. Об этом подробно говорится в статье Google Webmaster Central Blog. Такие обновления являются «глобальными», так как влияют на все ниши и типы сайтов.

При этом апдейты затронули преимущественно YMYL-ресурсы (Your Money – Your Life) – проекты, содержание которых может повлиять на жизнь, здоровье пользователей, их финансы, безопасность.

В своей инструкции для асессоров Google относит к YMYL следующие типы сайтов:

  • Медицинские, которые затрагивают заболевания, лекарственные препараты, медицинские учреждения.
  • Финансовые, содержащие информацию о налогах, инвестиция, банковских услугах.
  • Юридические, затрагивающие правовые вопросы, сведения о государственных органах.
  • Новостные издания, публикующие информацию о международных событиях, бизнесе, политике, науке, технологиях.
  • Интернет-магазины и страницы, позволяющие пользователям покупать в интернете.
  • Другие ресурсы, которые могут относится к категории YMYL, например, о фитнесе, питании, поиске работы, ремонте в доме. 

Первое большое обновление алгоритма Google вышло в августе 2018 года и получило название Google Medical Update из-за акцента на сайтах в области медицины и здравоохранения. Однако на самом деле влияние апдейта было намного шире. 

Barry Schwartz проанализировал более 300 ресурсов, которые потеряли трафик после августовского обновления. Среди них – преимущественно медицинские и e-commerce, а также проекты по тематикам финансы, бизнес, путешествия. 

Главный совет от Google после выкатывания нового алгоритма был в том, что веб-мастерам не нужно вносить какие-либо технические изменения на свои сайты. Фактически, компания заявила, что «никаких решений» не требуется, а обновление было направлено на продвижение сайтов, которые когда-то были недооценены. При этом следует продолжать искать способы сделать их лучше и предоставлять посетителям еще более качественный контент и опыт:

Среди «проигравших» оказались крупные порталы о здоровье, новостные издания, например, menshealth.com, womenshealthmag.com, dailymail.co.uk и другие.

В российском сегменте обновление тоже коснулось многих лидеров рынка.

Например, федеральный интернет-сервис по заказу аптечных товаров apteka.ru потерял половину трафика с 1 августа 2018 года:

Следующее крупное обновление алгоритма вышло в марте 2019 года и получило название March 2019 Core Update (неофициально – Florida-2). Реакция SEO-сообщества на него была преимущественно положительной. Существовало мнение, что мартовский апдейт стал откатом после августовского обновления, так как ряд сайтов вернули свой трафик и позиции. При этом восстановились не только ресурсы, затронутые августовским алгоритмом, но также сайты под «Пингвином» – об этом писали оптимизаторы на webmasterworld.com.

Однако снова под удар попали проекты, которые потеряли трафик после августовского апдейта. Также существует мнение, что марте в выигрыше оказались крупные нишевые YMYL-сайты, объединяющие несколько тем, а узконаправленные ресурсы наоборот просели в выдаче.

Следующее крупное обновление Google выкатил в июне 2019 года. По данным компании Sistrix, на этот раз количество затронутых доменов было намного больше. Самое значительное влияние апдейт оказал на сайты с категории YMYL, СМИ, небольшие интернет-магазины.

Searchmetrics отметили, что июньское обновление не только изменило способ оценки содержимого сайта, но также повлияло на макет SERP. В результатах поиска чаще стали показываться карусели видео.

На этот раз еще больше авторитетных ресурсов потеряли свой трафик. Среди них – британское новостное издание dailymail.co.uk, CCN.com – крупное криптовалютное издание, объявившее о своем закрытии после падения трафика из Google:

В июне ряд сайтов, которым удалось восстановить трафик в результате мартовского апдейта, снова просели по позициям. Обновление затронуло еще больше ресурсов в категории YMYL, увеличив долю «проигравших» проектов юридической, финансовой тематики, СМИ.

На этот раз сотрудник Google Джон Мюллер в Twitter объяснил, что крупные апдейты направлены не на отдельные факторы качества, как, например, в случае с обновлением скорости загрузки. Обновления ядра алгоритма влияют на то, как Google оценивает сайты, меняются также способы определения релевантности документов, качества, актуальности информации для пользователя.

24 сентября 2019 года Google анонсировал очередной апдейт. На этот раз новый алгоритм разворачивался медленнее, чем предыдущие, однако спустя несколько дней оптимизаторы начали говорить о росте или падении трафика. Основное влияние алгоритм оказал на сайты YMYL-категорий. Самый большой удар пришелся на медицинские, финансовые, туристические и медиаресурсы.

Ряд сайтов, потерявших трафик в июне 2019 года, смогли вернуть его, однако все же количество посетителей стало меньше, чем до августовского апдейта 2018 года. 

Кто в зоне риска

За последний год мы неоднократно сталкивались с проектами, которые в той или иной степени пострадали от Google Core Updates. Некоторые из них – лидеры юридической либо медицинской тематики в русскоязычном поиске, крупные медицинские клиники, каталоги и т.д. Кроме того, за год с момента выхода обновления алгоритма в августе опубликовано много зарубежных исследований и анализов «победителей» и «проигравших». Это дает возможность систематизировать данные, выявить, на какие факторы нужно обратить внимание уже сейчас, чтобы не оказаться в следующем списке «аутсайдеров».

Резкий рост трафика из Google 

Это явно прослеживается на примере медицинской клиники, которая потеряла трафик в результате апдейта в марте 2018:

На графике можно наблюдать резкий рост трафика из Google, но стагнацию в Яндексе, а также спад трафика из Google c 1 августа 2018 года. 

Если сайт продвигается под несколько поисковых систем, одна из них резко стала приносить в разы больше трафика, то это уже явный сигнал, что с проектом не все в порядке. Вероятная причина – попадание в индекс Google мусорных и низкокачественных страниц, дублей контента, профилей пользователей и т.д.

Большая разница в количестве проиндексированных страниц в разных поисковых системах или в сравнении с конкурентами

Яндекс достаточно быстро выкидывает из индекса мусорные страницы, дубли, а также страницы с небольшим количеством контента. Google же может проиндексировать не только дубли, а и технические страницы, которые формируются CMS. Попадание подобных URL в индекс Google надо отслеживать, при необходимости – закрывать от индексации.

Кликбейт в заголовках, неправдивая информация

В июне 2019 года на форум Google для веб-мастеров обратился сотрудник британского издания Daily Mail. В результате июньского апдейта оно потеряло 50% дневного трафика. По сообщению mediabiasfactcheck.com, причиной могло стать то, что Daily Mail – источник недостоверной информации, часто использует кликбейт в заголовках.

Если заголовок страницы не соответствует ее описанию, а сам контент недостоверный, не отвечает научному консенсусу, то такая страница может признаваться низкокачественной.

В руководстве для асессоров Google приводит примеры подобных страниц:

Заголовок статьи не отражает содержание страницы, вводит в заблуждение, в статье много бессмысленных утверждений
Статья содержит искаженную информацию

Назойливая реклама

Страницы с назойливой рекламой, которая мешает восприятию основного контента, признаются Google низкокачественными. Сюда относятся трудно закрываемые объявления, большие рекламные вставки, которые перекрывают основной контент (особенно на мобильных устройствах).

Пример страницы с назойливой рекламой

User Generated Сontent (UGC) на сайтах YMYL

UGC – это контент, который создается пользователями ресурса. К UGC можно отнести гостевые посты, вопросы и ответы на них, комментарии, отзывы и т.д.

Особенно важными являются гостевые статьи, вопросы-ответы. Как правило, для такого UGC создаются отдельные страницы, которые индексируются поисковыми системами и, соответственно, учитываются при оценке качества сайта.

Сайт www.9111.ru – крупный юридический портал, где пользователь может задать вопрос юристу и получить ответ профессионала.

С одной стороны, контент на страницах генерируется юристами, которые имеют подтвержденную квалификацию, с другой – ежедневно создаются сотни страниц UGC, качество которых не отслеживается.

Нетематическая статья с неподтвержденной информацией
Нетематическая статья, отсутствие редактирования

Сайт потерял половину трафика после июньского апдейта Google:

Если на YMYL-сайте присутствует UGC, то его необходимо модерировать, отслеживать новые публикации, чтобы не снижать качество проекта, не допустить появления дублей, малополезных страниц.

Сгенерированный контент и копипаст

Google признает низкокачественными страницы с автоматически сгенерированным или скопированным контентом (полностью либо частично), даже если указан источник информации. 

Например, часто информационные сайты (в том числе и YMYL) копируют на одну страницу данные из нескольких ресурсов, не меняя и не редактируя контент, при этом указываются ссылки на источники (чаще всего не кликабельные).

Страница со скопированным контентом из разных источников

Как восстановить трафик

Как правило, если трафик на сайте снизился после крупного обновления, то восстановить его получится не ранее, чем произойдет новый апдейт. За время между двумя апдейтами следует найти все ошибки и недоработки, которые могут мешать ранжированию, внести соответствующие исправления.

Выделим несколько важных этапов, которые помогут выявить основные проблемы и определить пути их устранения.

Анализ сайта на наличие дублей, мусорных, низкокачественных страниц

В январе 2019 года к нам обратился владелец каталога медицинских учреждений за помощью в восстановлении трафика после августовского апдейта. Сайт содержит карточки организаций с их описанием, каталоги с поиском по типу услуги, городу, стоимости и т.д. Кроме того, на сайте есть блог, где все статьи написаны врачами из разных клиник, они содержат много полезной информации, уникальных изображений, комментариев. 

С точки зрения пользователя обвинить такой сайт в неавторитетности и ненадежности было бы неправильно. Однако со стороны оптимизации мы обнаружили ряд проблем, которые могли повлиять на его ранжирование:

  1. 50% карточек организаций содержали неуникальный контент. Фактически описание было скопировано с главных страниц клиник с незначительными правками.
  2. Фильтры на страницах каталогов генерировали более 7000 страниц. Пример: «удаление зуба мудрости на Невском проспекте до 7000 рублей». На всех страницах фильтров генерировался ЧПУ и уникальные метаданные. При этом 80% таких страниц не содержали контента, так как в каталоге не было клиник, отвечающих запросам.

После проработки фильтров, закрытия от индексации всех дублей по контенту, страниц с малым количеством контента (каталоги с одной карточкой организации в списке), пустых страниц, а также уникализации описаний на карточках удалось восстановить трафик в марте 2019 года:

В своем руководстве для асессоров Google отмечает, что низкокачественными считаются страницы:

  1. назначение которых невозможно установить – страницы без основного контента или с невнятным и бессмысленным содержанием;
  2. с недостаточным количеством основного контента, который не раскрывает ответ на вопрос пользователя, не несет информационной ценности.
Пример страницы без назначения
Страница не соответствует заявленному назначению, содержит недостаточное количество контента

Анализ требований к качеству сайтов от Googlе 

Уже давно наметилась тенденция, что очередной крупный апдейт Google происходит после обновления руководства для асессоров. И хотя оно не является инструментом диагностики, но дает возможность понять, какие требования к качеству ресурсов выдвигает поисковая система.

Среди сотен критериев качества важно выделить следующие:

  1. Назначение страницы и то, насколько хорошо она соответствует ему.
  2. Экспертность, надежность, актуальность контента.
  3. Сведения о том, кто отвечает за сайт и создает контент на страницах (контактная информация, указание автора в статьях и т.д.).
  4. Хорошая репутация проекта или создателей контента (сюда относятся отзывы на других авторитетных ресурсах, упоминания и рекомендации экспертов, новости о ресурсе или авторах контента).

Первый пункт особенно важный. Представители Google неоднократно писали о том, что страница должна быть релевантной запросу пользователя, максимально полно раскрывать ответ на него.

Страницы высокого качества на YMYL-сайте должны содержать:

  • релевантный запросам пользователей контент, полностью раскрывающий тему;
  • подтверждение компетентности, надежности, авторитетности;
  • достаточный объем основного контента, информативный заголовок;
  • информацию об авторе или редколлегии ресурса.

Если проект пострадал после одного из апдейтов Google, нужно провести анализ страниц и ответить себе на вопросы:

  1. Есть ли у каждой страницы назначение, соответствует ли она ему?
  2. Кто является автором этого контента, можно ли его считать экспертом?
  3. Могу ли я доверять этому сайту?

Если большинство ответов отрицательные, необходимо работать над содержанием сайта, повышать его информационную ценность, полезность. 

Анализ и работа с E-A-T факторами

E-A-T (Expertise, Authoritativeness and Trustworthiness) – экспертность, авторитетность, надежность. Подробно концепция E-A-T изложена в руководстве для асессоров Google. Факторы экспертности, авторитетности и надежности – одни из основных при ранжировании сайтов YMYL. Остановимся подробнее на каждом пункте.

Expertise. Сайт и его авторы должны быть экспертами в своей нише. Подтверждением экспертности медицинского контента, к примеру, могут служить сертификаты и дипломы врачей, которые пишут контент. Новостные статьи должны создаваться профессиональными журналистами и содержать фактически точную информацию. Кроме того, контент YMYL-ресурсов должен постоянно обновляться.

Authoritativeness. На авторитет автора и ресурса могут работать внешние источники, социальные доказательства. К примеру, хорошим показателем авторитетности будут ссылки на сайт из других надежных ресурсов (Google приводит в пример Википедию, с которой можно начать изучение авторитетности YMYL-сайта), упоминания в других экспертных источниках, социальные сигналы, отзывы. В случае с интернет-магазинами свидетельством авторитетности считаются отзывы на других площадках от пользователей, которые ранее делали заказы на этом сайте.

Marie Haynes приводит интересный пример, когда после апдейта в феврале 2017 года Google срезал трафик на крупных сайтах, освещающих деловые вопросы. Статьи на них были написаны копирайтерами, заточены под ключевые слова и хорошо оформлены. В то же время больше трафика стали получать статьи, написанные женщиной, которая успешно вела несколько бизнесов и действительно может считаться экспертом в этой сфере. 

Вот снимок экрана, который компания использовала в одном из своих отчетов для демонстрации того, насколько авторитетным был автор статей по сравнению с клиентами, видевшими снижение трафика:

Trustworthiness. YMYL-ресурс не должен содержать недостоверный или ошибочный контент, а также информацию, которая не соответствует научному консенсусу.

Анализ пользовательского опыта и работа с поведенческими факторами

Представители Google неоднократно заявляли, что алгоритмы поисковой системы учитывают пользовательский опыт при ранжировании сайтов. По сути, он является субъективным мнением человека о сайте, с которым он взаимодействует, и это мнение нужно учитывать.

При анализе поведенческих факторов стоит уделить внимание CTR (кликабельности сниппета), времени на сайте и проценту отказов. Понимание того, как пользователи взаимодействуют с сайтом, поможет выявить проблемы, связанные с удобством, актуальностью страницы, полнотой ответа, и устранить их.

Выводы

Обновления основных алгоритмов Google охватывают целый ряд факторов ранжирования и влияют на все ниши. По сути, каждый апдейт вносит изменения в методы оценки качества, важность некоторых факторов может снижаться, а других – повышаться. Чтобы соответствовать новой реальности, необходимо регулярно улучшать сайт и обновлять его. 

При этом стоит помнить, что каждый проект индивидуален, и те методы восстановления трафика, которые подходят для одного ресурса, могут быть абсолютно бесполезными для другого. Именно при снижении трафика нужно выявлять все проблемы – от дублей страниц до отсутствия внешних ссылок на важные страницы.   

Google Core Updates – это не только о доверии, надежности и авторитетности. Это целая система критериев и методов оценки, каждый из которых влияет на ранжирование сайтов в поиске.


Подпишись на рассылку дайджеста новостей от Webline Promotion

Оцените статью
Webline Blog
Добавить комментарий