Чому це важливо?
Технічний аудит сайту – комплекс робіт, спрямований на виявлення технічних помилок сайту та помилок у його програмному коді. Їх своєчасне виявлення та усунення – запорука ефективного просування проекту.
Успіх пошукового просування сайту залежить від низки факторів:
- технічний стан сайту;
- контенту (наповнення);
- профілю посилань на сайт (посилання з інших сайтів);
- поведінкових факторів;
- стратегії розвитку проєкту.
Для того, щоб сайт добре ранжувався у видачі, він повинен відповідати всім вимогам пошукових систем:
Технічний аудит дозволить визначити різні недоробки у внутрішній оптимізації сайту:
- швидкість завантаження;
- дублювання сторінок та контенту;
- функціонування, як окремих модулів, так і сайту загалом.
І це далеко не цілий список завдань, які вирішуються на даному етапі.
Аудит здійснюється як на початковому етапі пошукової оптимізації, так і упродовж всієї роботи з проєктом. Від повноти аудиту залежить те, яких результатів зрештою досягне сайт у своїй ніші.
Етапи технічного аудиту сайту
Незалежно від типу проєкту — це інтернет-магазин або сайт ЗМІ — є ряд параметрів, що підлягають аналізу в обов’язковому порядку.
Перш ніж розпочати детальний технічний аналіз проєкту, потрібно провести аудит даних у панелі Яндекс. Вебмайстер і Google Search Console – ці інструменти дозволять виявити помилки на сайті та виправити їх перш ніж пошукові системи застосують штрафні санкції стосовно сайту. У ході аналізу ми ще неодноразово звертатимемося до цих інструментів.
Для багатьох сайтів різних тематик справедлива закономірність: чим більше сторінок в індексі пошукових систем, тим більше відвідувачів на сайті та вищий дохід. Якщо поглянути на завдання індексації проєкту з цього боку, то стане зрозумілим, чому ми винесли її в окремий розділ.
Що необхідно перевірити на сайті, коли йдеться про індексацію:
- Файл Robots. txt – Вказуємо, що можна індексувати, а що ні.
- Присутність на сторінках метатегу закриває від індексації сторінку.
- Карта сайту (Sitemap) у форматі XML та HTML прискорює індексацію/переіндексацію сторінок.
- Відсутність iframe, JS, Flash та інших технологій у навігації ускладнює або унеможливлює індексацію сторінок.
- Дані з вебмайстрів Google та Яндекс слід перевірити щодо обмежень або збоїв в індексації проєкту.
- Неправильно налаштовані коди відповіді сервера погано впливають на позиції сайту в пошукових системах. Якщо на проєкті багато сторінок, що віддають неправильну відповідь сервера, можливе попадання сайту під санкції пошукових систем.
- У випадку на проєкті: код 200 «ОК» всім сторінок; 301 Moved Permanently – для всіх сторінок з перенаправленнями (301 редирект необхідний для збереження та передачі ваги сторінки та посилальної маси); 404 Not Found – для всіх сторінок, що не існують.
- Некоректна структура URL може призвести до проблем з індексацією сайту та погіршенням його видимості у пошукових системах. Як правило, йдеться про динамічні елементи в URL та використання верхнього регістру.
- Швидкість завантаження
- На сьогодні хорошими показниками вважається завантаження сторінки до 2 секунд, а час віддачі html-коду – до 200-300 мс. Чим вище швидкість завантаження сторінки, тим зручніше користувачеві перебувати на сайті. Крім того, це один із важливих факторів, за яким пошукові системи ранжують сайт.
Виміряти швидкість завантаження сторінки можна різними інструментами, починаючи від «Інструментів розробника» у браузері Chrome, FireBug, Google PageSpeed Insights і закінчуючи різними сервісами.
Не варто забувати та про мобільну версію сайту, яка має бути оптимізована, в тому числі з урахуванням швидкості завантаження.
На що потрібно звертати увагу під час аналізу завантаження сторінок сайту:
- час відповіді сервера;
- швидкість віддачі інформації сервером;
- кешування даних;
- Java-скрипти розташовані в кінці сторінки та стиснуті;
- CSS-файли об’єднані;
- іконки та дрібні зображення, що повторюються, об’єднані в CSS-спрайти;
- у зображеннях використовується стиск без втрат якості, очищені метадані, вказані width і height;
- кнопки повинні бути прописані в CSS замість зображень;
- використовується стиск Gzip;
- CDN для великих сайтів із широкою географією користувачів;
- присутні HTTP-заголовки Last-Modified і If-Modified-Since для контенту, що постійно оновлюється;
- перевірити uptime сервер;
- валідність коду, верстку;
- сайти однією IP. Чим більше сайтів знаходиться на одній IP-адресі, тим більша швидкість завантаження і як наслідок — нижчі позиції. Бажано, щоб ваш сайт знаходився на виділеному IP, тобто був єдиним.
Дубльований контент
Контент, що дублюється, – це дві й більше сторінки сайту з однаковим змістом (найпоширеніший елемент контенту – це текст). Докладно про дублі можна почитати тут.
Дублі бувають чіткі та нечіткі. Чіткі дублі – це сторінки абсолютно однакові ним контентом, які мають різні URL-адреси. Розглянемо основні причини їх виникнення:
- дублі, що генерує CMS: індексні сторінки, сторінки пагінації /page-1/;
- дзеркала сайтів (з www або без www);
- дублі зі слешем “/” і без “/” в URL;
- дублі у вигляді великих та малих літер в URL;
- дублі, пов’язані з протоколами http та https;
- дублі виду — кілька слешів поспіль в URL;
- сесійні параметри в URL-адресах;
- службові дублі (друк сторінки, сортування товарів та інше).
Нечіткі дублі – це сторінки з дуже схожим контентом. Основні причини їх виникнення:
- контент сторінки за обсягом набагато менше наскрізної частини;
- сторінки, на яких частково або повністю (у різних перестановках, варіаціях) повторюється вміст.
Що потрібно перевірити на нечіткі дублі:
- каталог та сторінка товару;
- каталог та фільтри;
- каталог та сортування на ньому (ціна, рейтинг та інше);
- пошук по сайту;
- каталог, категорії та підкатегорії;
- мовні версії сайту;
- лістинг блогу та пости.
Усунути дублі можна різними способами, все залежить від їхнього типу. Основні інструменти боротьби з дублями:
- 301 редирект;
- налаштування файлу robots.txt;
- налаштування htaccess;
- використання атрибута rel=”canonical”;
- налаштування мовних версій за допомогою атрибуту hreflang.
Биті посилання та 404 сторінка
“Битим” називається посилання, що веде на нереальну сторінку, зображення або інший файл сайту, доступний за конкретним URL. Коли користувач переходить за битим посиланням, зазвичай він бачить повідомлення про те, що сторінку не знайдено і потрапляє на 404 сторінку. Якщо вебмайстер не подбав про зручність перебування користувача на сайті, то за битим посиланням відкривається службова сторінка сервера.
Сторінка 404 – це сторінка, яка показується користувачеві, якщо він потрапив на відсутню сторінку (припустився помилки при наборі адреси, сторінка тимчасово недоступна і т. д.). Якщо кількість помилок перевищить певний поріг, існує велика ймовірність того, що пошукова система застосує фільтр до сайту, що призведе до погіршення його позицій у пошукових системах.
Основні причини виникнення битих посилань:
- сторінку видалено із сайту;
- на відсутню сторінку стоїть посилання з іншого сайту, інколи навмисне.
Як знайти цю помилку:
- використовувати панель Google Search Console;
- використовувати спеціальні програми, наприклад, Xenu Link Sleuth або Screaming Frog Seo Spider;
- переглянути журнал помилок сервера.
Помилки сканування сайту в Google Search Console показуються таким чином:
Усунути або обробити такі посилання можна за допомогою коректного налаштування 301 редагування та за допомогою оптимізованої сторінки 404 помилки.
Висновки
Після аналізу сайту та виявлення помилок на кожному з етапів технічного аналізу ми отримаємо список завдань, рекомендованих до впровадження. В результаті їх виконання сайт повністю відповідатиме вимогам пошукових систем. Закладена база дозволить ефективно просувати та масштабувати проєкт.