SEO-проєктування сайтів: що треба знати

засновниця агенції Site24

Один із найкращих способів розвитку бізнесу — це просування сайту в пошукових системах (SEO). На відміну від контекстної реклами, реферальних програм та інших методів просування сайтів, SEO дає тривалий ефект: спочатку ви працюєте на пошукову систему, а потім вона працює на вас. Як зробити SEO просування сайтів максимально ефективно, що треба врахувати та закласти на сайт завчасно перед його розробкою, розповідає Катерина Золотарьова, засновник агенції Site24.

Часто можна почути, що пошукова оптимізація — дуже складний і дорогий процес. Частково це так: якщо вибрати неправильний підхід до SEO, можна взагалі не досягти результату. Щоб отримати бажаний ефект, потрібно добре розуміти методи пошукової оптимізації або ж довіряти цю роботу експертам.

SEO буде максимально продуктивним, якщо його починати застосовувати ще на етапі проєктування майбутнього сайту. Розповідаємо, чому це настільки важливо, аналізуємо поширені помилки й розглядаємо важливі нюанси пошукової оптимізації.

Чому SEO-спеціалісти мають брати участь у розробці сайтів?

Сучасні пошукові системи враховують найменші дрібниці в ранжуванні вебресурсів — від змісту тексту на сторінці до URL-адреси, від швидкості завантаження мультимедійного контенту до альтернативних описів зображень. А найголовніше, пошуковики орієнтуються не тільки на вміст окремих сторінок, а й на загальну структуру сайту. На відміну від тексту чи зображень, змінити її після запуску вебресурсу дуже важко, а іноді й просто неможливо.

Вартість роботи SEO-спеціалістів у разі проєктування сайту з нуля та оптимізації вже зробленого сайту буде майже однаковою. Але перший варіант має суттєві переваги. Звернувшись до професіоналів на початковому етапі, ви отримаєте результат набагато швидше. Бізнес раніше почне працювати на повну, випереджаючи конкурентів і здобуваючи лідерство, а не постійно когось безуспішно наздоганяючи. Крім того, так ви заощадите гроші й час, тому що інакше ви будете змушені платити програмістам двічі: один раз за розробку сайту, інший — за його переробку під вимоги пошукових систем.

SEO-оптимізація наявної платформи — це завжди довше, дорожче й важче, ніж проєктування нового сайту під вимоги пошукових систем.

План дій під час проєктування сайту

Правильний підхід — відштовхуватися від комерційної складової:

  1. Скласти робочу бізнес-модель. Для цього потрібно дати відповідь на низку питань: що ми продаємо, хто наші споживачі, яку цінність несе наша продукція, які потреби вона задовольняє, які переваги мають товари й послуги бренду.
  2. Провести аналіз конкурентів. Важливо вивчити поточне бізнес-середовище, щоб сформувати унікальну торгову пропозицію. Якщо ринок уже досить насичений, новий гравець може закріпитися на ньому тільки одним способом — визначити параметри, за яких він зможе бути кращим за інших.
  3. Закласти додаткову цінність на сайт. Щоб пришвидшити вихід на планові показники, потрібно зробити кращим не тільки сам бізнес, а й його онлайн-обличчя, тобто сайт. Він також повинен мати переваги перед конкурентами — розширену фільтрацію товарів, унікальний дизайн, найзручніший інтерфейс тощо.
  4. Визначити асортимент. Усе дуже просто: необхідно скласти список продуктів, які ви пропонуєте цільовій аудиторії. Структура сайту створюватиметься на основі асортименту, тому для пошукової оптимізації потрібно підготувати перспективний план розвитку бізнесу, зокрема виходячи з асортименту конкурентів.
  5. Визначити пріоритетні напрями SEO-оптимізації. Це завдання краще довірити професіоналу. Складаючи план робіт, він врахує особливості попиту на конкретному ринку, бізнес-модель компанії та відносини з конкурентами. Спеціаліст також розрахує бюджет просування сайту в топ, необхідний час виконання робіт та орієнтовну рентабельність цього каналу маркетингу.

Маючи на руках чітку комерційну модель, можна розпочинати проєктування вебресурсу. Вона дає змогу оцінити можливий обсяг трафіку й потенційний дохід від його залучення на сайт. Виходячи з цього, SEO-спеціаліст виконує таку попередню роботу:

  1. Збирає семантичне ядро, яке є базою для подальшого формування структури сайту та його контенту
  2. Проводить аналіз конкурентів та закладає на сайт ті переваги, які в майбутньому дадуть можливість «обігнати їх в Google топі»
  3. Робить структуру меню сайту, визначає всі категорії та підкатегорії товарів, а також систему фільтрів, які необхідно додати на сайт
  4. Формує технічне завдання на структуру сторінок сайту: які елементи треба додати на сторінки категорій та картки товарів, якщо це інтернет- магазин, та які інформаційні блоки в якому вигляді треба додати на посадкові сторінки для сайту послуг
  5. Розробляє технічне завдання на оптимізацію фукнціоналу фільтраціі, якщо це інтернет-магазин.
  6. Формує список технічних вимог до майбутнього вебресурсу. Співпрацює з UX-спеціалістами, дизайнерами й розробниками.

Тільки після цього варто починати розробку сайту. Подальша SEO-оптимізація буде максимально ефективною за умови виконання всіх вищезазначених пунктів плану. Така робота дійсно дуже складна, адже потребує аналітичних навичок, розуміння пошукових алгоритмів і досвіду SEO-оптимізації. Але все це окупиться, адже за умови якісного просування сайт зможе отримати топову позицію у видачі Google, що дасть йому змогу залучати органічний трафік.

Якою має бути оптимальна структура сайту?

У сучасному SEO ідеальним вважається такий підхід, за якого одній пошуковій потребі відповідає одна окрема сторінка. Якщо ви продаєте спортивний одяг, не варто змішувати майки з шортами та шкарпетками. Кожен тип і підтип товарів асортименту потрібно відокремлювати від інших.

Чому це настільки важливо? Перші позиції на сторінці пошукової видачі посідають ті сайти, які відповідають низці вимог:

  • містять релевантний контент;
  • максимально точно відповідають запиту користувача;
  • зручні в користуванні;
  • мають хорошу репутацію, що в SEO визначається якісними зовнішніми посиланнями;
  • побудовані на досконалій технічній платформі;
  • не мають помилок і технічних порушень в роботі.

Якщо сторінку присвячено лише одній категорії товарів, вона відповідає першим двом вимогам. Пошукові системи вважають її релевантною, і вона може ранжуватися у видачі Google за певним запитом. Якщо ж на сайті є сторінка «про все і ні про що водночас», роботи не зможуть однозначно визначити її тему, мету і значення для користувача. Відповідно, пошукові системи не видаватимуть її у топі за жодним із ключових слів.

Щоб сформувати правильну структуру вебресурсу, яка сприятиме зростанню позицій сайту, варто дотримуватись таких правил:

  1. Створювати окрему посадкову сторінку під кожен семантичний кластер, тобто під кожну групу запитів.
  2. Сформувати зручну для користувачів і зрозумілу для пошукових систем структуру меню сайту з усіма необхідними категоріями та підкатегоріями.
  3. Додавати фільтри згідно з семантичним ядром і групами запитів, за якими можуть ранжуватися сторінки, а також для зручності користувачів.

Принципи збору семантики

Формування структури сайту починається зі складання семантичного ядра. Для цього збираються маркерні запити за такими принципами:

  • за наявною структурою сайту (якщо вона є і підходить для оптимізації);
  • за списком товарів і послуг;
  • за сайтами конкурентів.

Семантичне ядро розширюється — до кожного напряму підбираються популярні запити. Їх кластеризують (групують) за принципом «одна пошукова потреба — одна сторінка сайту».

На основі цих кластерів формується структура майбутнього ресурсу. Зазвичай в ній використовуються категорії і фільтри за ключовими параметрами продуктів, наприклад, за брендами, матеріалами, розмірами, сезонами, призначенням тощо.

Складні структури сайтів

Більшість сайтів мають складну багатомірну структуру. Широкий асортимент і наявність багатьох параметрів змушують вдаватися до більш дрібної класифікації продуктів.

У нашому прикладі з магазином спортивного одягу кросівки можуть мати такі характеристики:

  • бренд;
  • призначення;
  • розмір;
  • колір;
  • матеріал тощо.

Щоб полегшити пошук товару й оптимізувати структуру сайту під пошукові запити, варто виділити окремі сторінки для кожної підкатегорії, найбільш зручно це реалізувати на сайті через впровадження фільтрації. Але тоді постає питання: які саме фільтри потрібні на сайті, в якій послідовності їх додавати, які відкривати та які закривати для індексації пошуковими системами, щоб вони працювали максимально ефективно?

Відповідь на ці питання лежить в зібраному семантичному ядрі, яке показує нам, за якими параметрами товарів люди шукають. Наприклад, ми можемо побачити, що користувачі шукають «червону спідницю», «спідницю в клітинку», «міні спідницю». Це говорить нам про те, що на сайт треба додати принаймні фільтри за кольором, за візерунком та за моделлю.

В якій послідовності варто додавати фільтри на сторінку категорії. Найпопулярніший підхід — сортування за частотою запитів в інтернеті. Топовий запит автоматично стає першим фільтром у сортуванні. Наприклад, якщо люди частіше цікавляться брендом кросівок, то товари спочатку фільтруватимуться за торговою маркою, а вже тоді за розміром і кольором.

Альтернативний спосіб розв’язання проблем — сортування за зручністю. Для цього потрібно знати потреби і вподобання своєї цільової аудиторії. Цілком можливо, що доведеться провести дослідження шляхом опитування, фокус-групи чи інтерв’ю. Першим буде той фільтр, який допоможе покупцю визначитися зі схемою подальших дій. Наприклад, спортивний магазин пропонує туристичні аксесуари. Спочатку варто визначитися, які палиці потрібні покупцю — для трекінгу на складній місцевості чи скандинавської ходьби рівними доріжками. Це важливіше за бренд і ключові характеристики.

Щоб зробити складну структуру сайту максимально ефективною, варто врахувати й такі рекомендації:

  1. Закривати від індексації сторінки фільтрів, якщо їм не відповідають жодні пошукові запити. Такі розділи не мають жодної цінності для оптимізації Google, але їхня обробка змушує витрачати зайві ресурси, і це негативно впливає на загальні позиції сайту.
  2. Аналогічно блокувати індексацію сторінок, на яких вибрано три чи більше фільтри, або два та більше фільтри в одній категорії. Наприклад, це можуть бути «білі шкіряні кросівки 43 розміру» або «червоні, зелені й жовті кеди». Такі запити занадто вузькі, щоб мати потенційний SEO-трафік.
  3. Позбуватися дублів сторінок із різним порядком фільтрів. Наприклад, у категорії «Спортивний одяг» не має бути двох розділів на кшталт «бренд-матеріал-розмір» і «розмір-матеріал-бренд». Для них потрібно створити одну сторінку з однаковою URL-адресою зі стандартним порядком відображення обраних фільтрів.
  4. Створювати шаблони автоматичної генерації URL і метатегів для будь-яких можливих комбінацій фільтрів, які будуть відкриті для індексації пошуковими системами. Варто перевірити всі варіанти на граматичну коректність та узгодженість, щоб максимально якісно оптимізувати мета-теги таких сторінок фільтрів.
  5. Обов’язково перевіряти коректність індексації усіх розділів сайту. Необхідно регулярно проводити технічний аудит вебресурсу, щоб бути впевненими в ефективній роботі кожної сторінки.

Сторінки категорій і основних фільтрів, по яких ми маємо високий потенційний рівень трафіку, повинні мати заголовки формату H1. Їхні мета-теги, title та description, краще прописувати вручну — вони більш якісно впливають на оптимізацію сторінок, ніж шаблонні мета-теги. Крім того, необхідно додати можливість відкривати й закривати подібні сторінки для індексації, додавати тег Canonical, а також зберегти можливість легко додавати та редагувати текст.

Технічні вимоги до SEO-проєктування сайтів

У SEO значну роль відіграють технічні вимоги до сайту. Щоб вийти на топові позиції пошукової видачі, він має бути швидким, зручним, логічно структурованим та унікальним.

Боротьба з дубльованим контентом

Копіювання контенту порушує правила Google та інших пошукових систем. І неважливо, де ви берете його — в конкурентів чи в іншому розділі власного сайту. Пошукові системи вважають це прямим порушенням правил — спробою вкрасти чужу інтелектуальну власність чи свідомим обманом користувачів. Вони застосовують до таких сайтів санкції — примусове зниження рейтингу чи навіть тимчасове виключення з індексації.

Але дублювання контенту не завжди є навмисним. Іноді причиною стають технічні помилки сайту. Тому дуже важливо перевіряти такі проблемні місця:

  • копії сторінок — тестові й проміжні варіанти, старі версії тощо;
  • дублі головної сторінки, наприклад із хвостом index.php;
  • дзеркала домену — з http і https, з www і без, зі слешем наприкінці й без нього;
  • форми реєстрації;
  • кошик і форму замовлення продукції;
  • сторінки сортування й вибору кількості товарів;
  • розділ пошуку контенту на сайті;
  • сторінки з тегами та додатковими параметрами;
  • технічні розділи — технічні файли CMS, наприклад, панелі адміністратора.

Одразу варто наголосити, що на великому сайті зі складною структурою знайти всі дублі досить складно. Щоб впоратися з такою задачею, необхідно провести повноцінний технічний аудит, скориставшись парсером сайту на кшталт Screaming Frog. Обов’язковими умовами якісного аналізу також є досвід і глибокі знання SEO-спеціаліста.

Після проведення діагностики варто вжити заходів із нейтралізації дубльованого контенту. Для цього використовують такі методи:

  1. Переспрямування за допомогою HTTP-коду 301. Цей засіб актуальний для усунення негативного впливу всіх видів дзеркал і дублів головної чи інших сторінок. При попаданні на некоректну сторінку користувач буде непомітно для себе переадресований на актуальну сторінку.
  2. Тег Canonical. Вказує на основну версію сторінки, віддаючи команду ігнорувати всі інші варіації. Підходить для блокування зайвих розділів фільтрації, сортування, форми замовлення, вибору кількості товарів тощо. Його також використовують для різних варіантів URL адрес, що ведуть на одну й ту саму сторінку, наприклад «домен–товар» чи «домен–розділ–підрозділ–товар».
  3. Файл robots.txt у кореневому каталогу сайту. Він дає рекомендації пошуковим роботам індексувати чи ігнорувати певні розділи платформи. Його ефективно застосовувати проти технічних файлів чи сторінок результатів пошуку всередині вебресурсу.
  4. Тег meta robots у HTML-коді сторінки. На відміну від robots.txt, він носить директивний, а не рекомендаційний характер. З його допомогою блокують індексацію неунікальних сторінок і фільтрів з нульовою цінністю для пошукової оптимізації.

Дуже важливо, щоб пошукові системи мали доступ тільки до єдиної правильної версії кожної сторінки сайту. Це мінімізує ризик санкцій за дубльований контент і підвищує ефективність стратегії оптимізації.

Схема сайту

Пошукові системи висувають такі вимоги до навігації вебресурсом:

  1. Посилання, зрозумілі для людей. URL-адреса сторінки має відображати її зміст. Наприклад, замість example.com/2423/cat/new краще використовувати example.com/shop/sneakers/red.
  2. Правильне заповнення файлу sitemap.xml. Він містить перелік сторінок, на який пошукові роботи орієнтуються під час індексації. Якщо вона неповна чи містить помилки, деякі сторінки можуть не показуватися в результатах пошуку. Найкраще довірити її генерацію спеціальному застосунку чи плагіну до системи керування контентом (CMS), але SEO-фахівець має контролювати коректність заповнення файлу.
  3. Посилання на файл sitemap.xml має розташовуватись у файлі robots.txt. Це допоможе пошуковій системі знайти мапу й почати індексацію.
  4. Усі дійсні сторінки в sitemap.xml повинні давати відповідь HTTP 200. У файлі не має бути сторінок, які видають переадресацію 301 чи помилку 404. Для останньої має існувати окрема сторінка зі зручним приємним дизайном, що мотивує перейти на головну чи повернутись назад, а не закрити сайт назавжди.
  5. Окремі мовні версії сайту мають помічатися тегами alternate. Це зменшить ризик визнання цих сторінок дублями.

Інші важливі вимоги

SEO-оптимізація — занадто складний процес, щоб описати його в одній статті. Справжні професіонали ніколи не припиняють навчання, адже вони мають справу зі стандартами та нормами, що постійно змінюються та оновлюються. Але назвемо важливі нюанси, які також впливатимуть на успіх просування сайту:

  1. Правильна верстка без помилок.
  2. Висока швидкість завантаження контенту.
  3. Оптимізація під мобільні пристрої.
  4. Виділення коду JavaScript і CSS в окремі файли.
  5. Відсутність прихованого контенту, не помітного оку користувача.
  6. Наявність мікророзмітки Schema.org або Opengraph.
  7. Наявність «хлібних крихт» — адрес попередніх сторінок.

Висновок: чому будувати краще, ніж перебудовувати

SEO-оптимізація сайту — важлива умова існування та розвитку бізнесу. Найкращий спосіб встановити зв’язок зі своїми майбутніми клієнтами — зробити свою пропозицію відповіддю на їхній пошуковий запит. Цього можна досягти тільки за допомогою довгої клопіткої роботи, яка охоплює кожен елемент сайту.

Ідеальним рішенням є оптимізація на стадії проєктування нового сайту. Вона допоможе уникнути зайвої роботи, мінімізувати терміни запуску вебресурсу та зменшити витрати на просування бізнесу онлайн. Це завдання дуже складне й відповідальне, тому його варто довірити кваліфікованому і досвідченому SEO-спеціалісту. Таке рішення допоможе реалізувати потенціал проєкту на 100%, зробить його максимально прибутковим і зручним у підтримці.

У вас є цікава колонка для The Page?
Пишіть нам: kolonka@thepage.ua

Читати на The Page

Редакція не несе відповідальності за зміст матеріалу і може не поділяти точку зору його автора