Неочевидні помилки, які коштували сайту 10% трафіку або «Чому важливо моніторити дані аналітики регулярно?»

Автор кейсу: Євген Гнідаш, SEO-спеціаліст в агентстві

Клієнт: ДЕКА, магазин годинників №1 в Україні.

Проблема

Просідання трафіку на сайті — це завжди неприємна новина і для бізнесу, і для SEO-фахівця. Із цим ми зіткнулися в ADINDEX. Після перегляду даних аналітики помітили негативну динаміку трафіку на сайті — за тиждень втратили 10% органічного трафіку:

Середня позиція сайту в пошуковій видачі Google водночас знизилася на 20%:

Поверхнева перевірка не дала відповіді на питання, чому трафік просів. Ми розуміли, що нічого просто так не відбувається, і вирішили пірнути глибше.

Завдання: пошук причини

Ми почали опрацьовувати одну гіпотезу за іншою. У результаті зрозуміли, що деякі причини, про які ми одразу подумали, були неактуальними.

Наприклад, такі:

  1. Сезонність. Проект ДЕКА ми ведемо вже не перший рік та знаємо статистику минулих років. Сезонність тут була ні до чого.
  2. Оновлення пошукових систем. У 2021 році, вперіод з квітня до вересня, Google потішив нас шістьма оновленнями, хоча зазвичай їх виходить не більше двох-трьох за рік (за даними сервісу www.rankranger.com). Водночас ми спостерігали стабільне зростання з місяця в місяць, тому вважали, що апдейти не були причиною просідання трафіку.
  3. Ручні санкції. Аналіз звітів у Google Search Console не показав жодних санкцій з боку пошукових систем або вірусів на сайті.
  4. Технічні помилки сайту. Технічний аудит не виявив критичних помилок, які б вплинути на динаміку трафіку.

 

Причина виявилася технічною. До того ж, проблема була не на самому сайті, а на тестовій версії.

Євген Гнідаш

 

Навіщо потрібний тестовий сайт? Як відомо з назви, він створюється для того, щоб заздалегідь протестувати оновлення на основному сайті та запобігти помилкам. Додатково тестовий сайт може стати заміною на основний сайт, якщо на ньому виникають проблеми. Наприклад, для відновлення втрачених даних.

Створення тестових сайтів — звичайна справа у сайтобудуванні, проте важливу роль тут відіграє правильна оптимізація тестового середовища.

Коли ми аналізували зворотні посилання, у звіті Google Search Console помітили велику кількість явно спамних посилань. Це було підозріло:


Як виявилось, пошукова система проіндексувала тестовий сайт, через що в індекс потрапило 2120 сторінок. Це і призвело до великої кількості дублів сторінок:

Як так вийшло, залишається загадкою, оскільки тестовий сайт весь час був закритим від індексації. Але результат — 10% втраченого трафіку.

Рішення

Ми попросили розробників:

  1. Закрити тестовий сайт від індексації IP і надавати доступ до нього тільки за паролем. Спосіб закриття IP — найнадійніший. Таким чином робота пошукової системи точно не отримає доступ до сайту і не проіндексує його.
  2. Також ми відхилили посилання з тестового сайту за допомогою інструменту Disavow Tools, щоб пошукова система не враховувала їх.

 

Результат

Через три тижні тестовий сайт майже повністю випав із пошукової системи. Станом на 12 жовтня 2021 року в індекс потрапили 50 сторінок:


Трафік на сайт було відновлено і ми побачили позитивну динаміку:

Висновки

Дивіться в аналітику якомога частіше. Так ви зможете одразу помітити будь-які зміни на сайті і своєчасно на них зреагувати.

Під час аналізу причини просідання трафіку, потрібно опрацьовувати всі варіанти. Іноді банальні речі можуть бути не зовсім очевидними.

Якщо у вас є тестовий сайт, обов’язково закрийте його від індексації та краще зробіть це шляхом обмеження доступу на IP адресу. Таким чином, ви зможете уникнути появи дублів сторінок сайту в індексі.