Неочевидные ошибки, которые стоили сайту 10% трафика или Почему важно мониторить данные аналитики регулярно

Автор кейса: Евгений Гнедаш, SEO специалист в агентстве

Клиент: ДЕКА, магазин часов №1 в Украине.

Проблема

Проседание трафика на сайте — это всегда неприятная новость и для бизнеса, и для SEO-специалиста. С этим мы и столкнулись в ADINDEX. Просматривая данные аналитики заметили негативную динамику трафика по сайту — за неделю потеряли 10% органического трафика:

Средняя позиция сайта в поиске Google при этом снизилась на 20%:

Поверхностная проверка не дала ответа на вопрос о том, почему трафик просел. Понимая, что ничего просто так не происходит, мы решили копнуть поглубже. 

Задача: поиск причины

Мы начали прорабатывать одну гипотезу за другой.  В итоге поняли, что некоторые причины, о которых мы сразу подумали, были неактуальными. 

Например, вот такие:

  1. Сезонность. Проект ДЕКА мы ведем уже не первый год и знаем статистику прошлых лет. Сезонность здесь была ни при чем.
  2. Обновление поисковых систем. В 2021 году в период с апреля по сентябрь Google порадовал нас шестью обновлениями, хотя обычно их выходит не более двух-трех в год (по данным сервиса www.rankranger.com). При этом мы наблюдали стабильный рост от месяца к месяцу, поэтому посчитали, что апдейты не были причиной проседания трафика. 
  3. Ручные санкции. Анализ отчетов в Google Search Console не показал каких-либо санкций со стороны поисковых систем или вирусов на сайте. 
  4. Технические ошибки сайта. Технический аудит не выявил критических ошибок, которые могли бы повлиять на динамику трафика.

 

Причина оказалась технической. Причем проблема была не на самом сайте, а на его тестовой версии.

Евгений Гнедаш

 

Зачем нужен тестовый сайт? Как понятно из названия, он создается для того, чтобы заранее протестировать обновления на основном сайте и предотвратить ошибки. Дополнительно тестовый сайт может стать заменой основному сайту, если на нем возникают проблемы. Например, для восстановления утерянных данных.

Создание тестовых сайтов обычное дело в сайтостроении, однако важную роль здесь играет правильная оптимизация тестовой среды.

Когда мы анализировали обратные ссылки, в отчете Google Search Console заметили большое количество явно спамных ссылок. Это было подозрительно:

Как оказалось, поисковая система проиндексировала тестовый сайт, из-за чего в индекс попало 2120 страниц. Это и привело к большому количеству дублей страниц:

Как так получилось, остается загадкой, поскольку тестовый сайт все это время был закрыт от индексации. Но результат на лицо — 10% потерянного трафика.

Решение

Мы попросили разработчиков:

  1. Закрыть тестовый сайт от индексации по IP и предоставлять доступ к нему только по паролю. Способ закрытия по IP — самый надежный. Таким образом бот поисковой системы точно не получит доступ к сайту и не проиндексирует его.
  1. Также мы отклонили ссылки с тестового сайта с помощью инструмента Disavow Tools, чтобы поисковая система не учитывала их.

Результат

Спустя три недели тестовый сайт почти полностью выпал из поисковой системы. По состоянию на 12 октября 2021 года в индексе оказалось 50 страниц:

Трафик на сайт восстановился и мы увидели положительную динамику:

Выводы

Смотрите в аналитику как можно чаще. Так у вас будет возможность сразу замечать любые изменения по сайту и своевременно на них реагировать.  

Анализируя причины проседания трафика, нужно прорабатывать все варианты. Иногда банальные вещи могут быть не самыми очевидными. 

Если у вас есть тестовый сайт, обязательно закройте его от индексации и лучше это делать путем ограничения доступа по IP адресу. Таким образом вы сможете избежать появления дублей страниц сайта в индексе.