Знайомство з білими методами SEO — пошукове просування без фільтрів

Безпечна пошукова оптимізація контенту сайту

У попередньому розділі (контент) я стверджував, що контент сайту — король. Все вірно, так і є, якісний контент веб-ресурсу — це надійний фундамент успіху твого проекту. Однак, будь-який король має потребу в свиті, яка підтримує його в будь-яких важких ситуаціях, дає слушні поради та інше. Іншими словами, успіх короля часто залежить від компетенції його оточення.

Контент будь-якого веб-ресурсу потребує оптимізації для пошукових машин — SEO. Чому? Бо жоден сайт не готовий відмовитись від органічного трафіку з пошукових систем. Оптимізація сайту в цілому буває двох типів: внутрішня та зовнішня. Також існує три види SEO-оптимізації, про які я сьогодні детально розповім. Але перш ніж почати розмову про методи просування сайтів, потрібно зрозуміти що за звір ховається під словом «просування», а також які його цілі.

Що таке просування сайту?

Яка мета просування web-сторінок?

Під короткою фразою «просування сайту» ховається величезна кількість тілорухів окремо взятого сеошника або групи людей, які, як правило, спрямовані на поліпшення видимості веб-ресурсу (бренду) в Мережі інтернет, з закріпленням посадочних (цільових) сторінок сайту за тими чи іншими пошуковими словами / фразами на перших (високих) позиціях так званого SERP-а.

Переважна більшість сайтів всіляко намагається зайняти найвищі позиції на першій сторінці пошукової видачі (ТОП-3), або хоча б потрапити по потрібним ключам в ТОП-10. Для багатьох ресурсів цього цілком достатньо щоб отримувати профіт і насолоджуватись життям. Однак, в залежності від поставленої мети, не завжди закріплення сайту в ТОП-10 може дати бажаний результат.

Наприклад, інтернет-магазин за потрібними ключовими словами займає високі позиції в ТОП-10, трафік високий, але продажі бажають кращого, тобто конверсія нижче середнього. У чому може бути проблема такого низького рівня конверсії? Причин може бути багато. Наприклад, ціни на товари або послуги дещо завищені порівняно з конкурентами. Людина прийшла на сайт, побачила ціни, і тут же залишила ресурс в пошуку більш адекватних цін.

Варто відзначити, що цілі просування бувають різні, але кінцевий результат завжди переслідується один і той же — заробляння грошей. Як це виглядає? Дуже просто. Комусь достатньо щоб його сайт приводив нових клієнтів / покупців. Іншому потрібно всього лише нагнати купу народу на свій блог, монетизуючи трафік. А третій бажає сповістити світ про якийсь новий бренд або послугу.

Щоб люди змогли на твоєму блозі прочитати корисну статтю, дізнатися про бренд, скористатися послугою тощо, без просування сайту або окремої web-сторінки не обійтись. Інакше ніхто ніколи не знайде в Мережі вищезазначені речі. Така ж сумна історія чекає і ті сайти, які використовують заборонені методи просування. Щоб всі труди не закінчилися пшиком, при розкручуванні сайту слід знати яким способом можна користуватись, а яким не можна. Власне, саме час розповісти про способи просування web-ресурсів.

Які існують способи просування сайтів?

Не SEO єдиним...

Існує велика кількість способів просування в інтернеті сайтів чи послуг. В онлайні можна розкручувати веб-ресурси починаючи з E-mail розсилок рекламного характеру, і закінчуючи тим же SEO. В оффлайні можна використовувати безліч способів розкрутки сайту, але не про них сьогоднішня стаття. Просувати сайт або окрему посадочну сторінку в онлайні можна як за гроші, так і абсолютно безкоштовно.

Платне просування сайту

  • Найняти SEO-компанію або фрілансера SEO-спеціаліста;

  • Контекстна, графічна (банерна) реклама;

  • Купівля беклінків з тематичних сайтів та електронних книг;

  • Платне просування статтями;

  • Беклінки з відеороликів на відеохостингу YouTube;

  • Платні публікації з беклінком у соцмережах й на інших сайтах/сервісах;

  • Замовити SMM просування у спеціалістів.

Безкоштовне просування веб-ресурсу

  • Самостійне SEO-просування (володіння усіма тонкощами пошукової оптимізації);

  • Контент-маркетинг (просування сайту статтями);

  • Обмін посиланнями з сайтами близькими за тематикою;

  • Розшарювання анонсів публікацій блогу в соцмережах (SMM/SMO);

  • Зворотні посилання з тематичних форумів і власних електронних книг;

  • Беклінки на статті блогу в коментарях з тематичних сайтів;

  • Адреса сайту у копірайті на фотографіях та в EXIF даних;

  • Посилання на сайт з сервісів питань та відповідей;

  • Беклінки з блогів створених на безкоштовних сервісах;

  • E-mail розсилка з анонсом нової публікації в блозі;

  • Використання каталогів сайтів;

  • Відеоролики з беклінками на YouTube (відеоверсії посадочних сторінок).

Вище представлено далеко не всі способи розкрутки веб-сайту в Мережі інтернет. Час не стоїть на місці, періодично з'являються нові можливості поширити інформацію про сайт або окрему сторінку. Перерахованих вище способів достатньо для успішного просування твого блогу. У просуванні не обов'язково юзати всі ці інструменти. Для якісної розкрутки сайту буде достатньо використовувати хоча б 40-50% з них.

Оскільки тема просування вельми обширна, в майбутніх статтях про кожну з них я постараюсь докладно розповісти. Сьогоднішній матеріал — це вступна стаття, яка дає лише поверхневе уявлення про те, що таке просування, і які способи розкрутки сайтів існують. Рекомендую звернути увагу на самостійне SEO-просування. Це хоч і не просте заняття, зате ефективне у довгостроковій перспективі. Даний розділ кейсу про заробіток на блозі допоможе кожному бажаючому оволодіти базовими знаннями SEO, які необхідні для пошукової оптимізації сайту.

Три види пошукової оптимізації сайтів

Які SEO-методи варто вибрати щоб уникнути бана в пошуковику?

Пошукова оптимізація сайтів — SEO існує в трьох видах: біле SEO, сіре та чорне. Нижче я розповім докладніше про кожен з них, поясню чим вони відрізняються один від одного. Забігаючи вперед, хочу сказати, що особисто я на всіх своїх сайтах використовую виключно біле SEO, але ти маєш право вибрати будь-який з трьох видів. Нижче я графічно зобразив контраст граней переходу від білих методів оптимізації до чорних. Як бачимо, між білим і сірим чітка грань практично відсутня. Однак контраст між сірими методами SEO-оптимізації й чорними доволі високий.

Градієнтний перехід між границями seo оптимізації біле сіре і чорне

Чому я не використовую сіре або чорне SEO? Тому, що я ціную свій час. Займаючись сірими і чорними методами SEO-просування, мої сайти звичайно ж дали б дуже швидко бажаний, проте, короткочасний результат. Дуже скоро сайти вилетіли б в БАН, і мені довелося б все починати з нуля. Але так як я від природи дуже лінива людина, мені не хочеться повертатись на стартові позиції, створюючи нові проекти.

Біле SEO — дозволені методи просування web-сайтів

Які переваги надає «white SEO»

При просуванні web-сайту рекомендую використовувати виключно «white SEO», при якому накладення санкцій на сайт практично неможливе. Так як для просування сайту застосовувалися методи рекомендовані пошуковими системами, можна не хвилюватися через черговий апдейт (оновлення) фільтра пошуковика, або навіть коли викотять абсолютно новий алгоритм ранжування сайтів.

Якщо на сайт випадково (помилково) буде накладено якийсь новий фільтр, шанси його швидкого зняття будуть дуже великі, бо ми абсолютно білі та пухнасті, протягом багатьох років суворо дотримувалися рекомендацій шановного пошуковика. Звернувшись в техпідтримку пошукової системи, сліпучо-білу пухнастість можна буде довести незаплямованою репутацією нашого сайту.

Білі і пухнасті методи SEO оптимізації

Однак, якщо асесор пошуковика, примруживши ліве око, відшукає сірий відтінок в нашій пухнастості, або знайде якусь маленьку чорну ворсинку, — збриє всю цю рослинність тупим лезом, причому насухо. І потім доводь що ти не стрижений баранчик. Довести буде не просто, або взагалі неможливо. Звідси мораль: використовуй лише дозволені білі методи при просуванні свого сайту.

Зараз я розповім про білі методи SEO-просування сайту, які захистять нашу шикарну білосніжну рослинність від тупого леза асесора. Отже, сідаємо зручніше, уважно читаємо і запам'ятовуємо.

  1. Склади семантичне ядро сайту

    В одній зі своїх минулих статей я докладно розповідав як скласти семантичне ядро (СЯ) для сайту. Суть семантичного ядра полягає в тому, щоб зібрати пул ключових запитів, по яких просуваються сторінки, і після цього акуратно розподілити їх по статтях, посиланнях перелінковки, меню навігації, і нарешті, використовувати їх у назвах розділів та категорій.

  2. Пиши усі статті власноруч або плати копірайтеру

    Весь контент сайту повинен бути, як мінімум, унікальним з технічної точки зору. Тобто всі тексти і фотографії (картинки) в статтях повинні бути авторськими, або, в крайньому разі, унікальними. Копіпаст (в тому числі рерайт) і чужі фото зображення — зло, за яке пошуковики гладять по голові насухо виключно тупим лезом.

  3. Стеж за щільністю ключових слів в текстах статей

    Не потрібно спамити ключовими словами / фразами в статтях по яких просувається сторінка. Текст повинен легко читатися. Ключі повинні органічно вписуватися у вміст статті та виглядати в тексті природно. Перевищення рівня щільності ключів у текстах приведе до переоптимізаціі, що викличе гнів пошуковика, з подальшим відправленням сторінки або всього сайту в славне місто Баден-Баден (фільтр від Yandex).

  4. Пиши багато і грамотно

    Обсяг тексту на сторінці статті повинен бути більше об'єму вихідного коду сторінки. Сучасні двіжки генерують величезну масу коду (іноді зайвого), який необхідний для повноцінної роботи сайту та додатків. Тому необхідно стежити за тим, щоб кількість символів тексту перевищувала кількість HTML коду.

    Порівнювати вручну об'єми текстів та кодів — справа виснажлива та невдячна. Тому слід використовувати плагін SEOquake, який встановлюється як розширення браузерів Firefox і Chrome. Детально про те, як встановити додаток SEOquake та використовувати, читай в статті доступною за посиланням вище.

    Також перед публікацією статей слід ретельно перевіряти тексти на різного роду помилки. Якщо в статті на 10 000 символів буде 2-3 помилки — це не критично. Але якщо їх буде занадто багато, роботи можуть вирішити, що текст писав школяр двієчник. Відповідно, від двієчника не варто чекати корисного контенту, а значить нехай ця стаття поступиться місцем у ТОП-і більш грамотним й відповідальним авторам.

  5. Нарощуй посилальну масу акуратно і поступово

    Якщо твоєму блогу менше року від народження, і до того ж тематика сайту в Мережі не вельми популярна, від закупівлі посилань краще відмовитись. Через рік можна почати потихеньку підшукувати якісні тематичні ресурси, на яких можна поставити відкрите для індексації зворотнє посилання на свій блог (на просувну сторінку).

    Уникай посилального вибуху, тобто не допускай занадто різкого збільшення беклінків з сайтів донорів. Якщо конкуренти вирішили загнати твій сайт під фільтри пошукових систем (фільтр Мінусинськ від Яндекса чи Penguin (пінгвін) від Google), накидавши купу поганих посилань на твій блог, негайно видаляй весь цей шлак через панель вебмайстра. Стеж за чистотою посилального профілю твого сайту.

  6. Уникай повторень ключа в метатегах і HTML-елементах

    Присутність ключового слова або фрази в HTML-елементах title та h1, а також метатезі description вітається пошуковиком і жодним чином не шкодить білизні пуху. Однак, якщо туди напхати кілька прямих входжень ключа, пошуковик може розцінити це як спробу маніпуляції результатами видачі, та дати запотиличник вебмайстру за неповагу до пошукової системи і проявлену ним зухвалість.

  7. Не виділяй ключі жирним, не маскуй strong та em в текстах

    Виділяти слова або фрази жирним і курсивом ніхто не забороняє, навпаки, це навіть вітається пошуковими машинами. Однак, щоб не втратити довіру пошуковиків, слід застосовувати дані виділення тексту дуже акуратно, де це доцільно й дійсно необхідно. І забудь про замасковані стронги в анкорах посилань.

    Також не варто випробовувати на міцність нервову систему пошукових систем, маскуючи strong і em під звичайний текст. Пошуковик приймає до уваги важливість цих HTML-елементів, наділяючи їх певною вагою. Але якщо випадково виявиться, що веб-майстер за допомогою стилів приховав від користувача виділення тексту, скоріш за все, він страшенно образиться, та віддасть твій сайт на поталу Панді (фільтр Panda від Google).

  8. ЛЗУ роби читабельним, інформативним, і без спаму

    Оптимізація людино-зрозумілих урлів (ЛЗУ) дуже важлива для просування сайту. Адже URL-и сторінок люди читають не лише в адресному рядку браузерів, але й в пошуковій видачі, у різного роду публікаціях, месенджерах та інших людних місцях. Тому потрібно робити URL-и статей максимально читабельними, інформативними, і, звичайно ж, ніякого спаму.

    В ЛЗУ, так само як і в title, h1 і description ключ можна включити лише один раз. Потрібно писати слова на трансліті правильно, без помилок, щоб людина змогла швидко прочитати куди веде розміщене посилання. Також рекомендую робити URL-и сайту не надто довгими. Хоча пошуковики в останні роки ігнорують зміст URL-ів, проте, не варто зайвий раз їм підказувати що над сайтом працює сеошник.

  9. Структура контенту повинна бути грамотно складена

    На сторінках з публікаціями дуже важлива присутність грамотно складеної структури контенту, яка сприяє поліпшенню сприйняття вмісту статті, а також полегшує орієнтацію і навігацію по сторінці. Якісно розроблена структура контенту здатна втримати користувача на сторінці, що вельми корисно для поліпшення показників ПФ (поведінкових факторів).

    Необхідно дотримуватися ієрархічного розташування заголовків та їх розмірів. Тобто елемент h1 в коді не може бути нижче елементу h2 або h3 і дрібнішим за розміром. Елемент h1 завжди повинен бути якомога вище в початковому коді сторінки і мати адекватний своєму рівню розмір. Ідеально, якщо перед елементом h1 немає ніяких інших (меню та інше). Також при розробці структури контенту потрібно намагатись розташовувати заголовок h3 нижче заголовку h2, і візуально виділяти їх на сторінці шрифтом, кольором та/або розміром.

  10. Заборони роботам індексувати дублі сторінок

    Закрити від індексації дублі сторінок можна за допомогою 301-го редиректу, прописавши деякі правила в конфігураційному файлі .htaccess. Також можна це зробити за допомогою спеціальних директив в текстовому файлі під ім'ям robots.txt. Якщо 301-й редирект не катить, в такому випадку необхідно використовувати у вихідному коді канонічні посилання на усіх сторінках сайту.

    Щоб вказати пошуковому роботу яка сторінка є основною (канонічною), необхідно розмістити на самому початку вихідного коду сторінки (між тегами службового елемента <head>) HTML-елемент link з атрибутом rel, значення якого — canonical, див. скріншот ниже.

    HTML елемент link з атрибутом rel canonical

    До купи також потрібно заборонити індексацію всіх службових сторінок, наприклад, сторінка з формою входу, контакти, власні сторінки помилок, якісь заглушки, сторінка користувацької угоди тощо. Тобто потрібно закрити від ботів ті сторінки, які тобі не потрібні в пошуковій видачі . Якщо є можливість додати на ці сторінки забороняючий індексацію метатег (<meta name="robots" content="nofollow, noindex">) — зроби це, прописавши даний рядок коду між тегами <head>.

  11. Створи правильну перелінковку документів

    Детально про перелінковку сторінок сайту я вже раніше розповідав, тому повторюватися не буду. Скажу лише, що грамотна перелінковка дуже корисна для просувних сторінок сайту по низькочастотних запитах. Наприклад, в Яндексі можна підняти в ТОП-10 потрібні сторінки за певними ключам використовуючи всього лише якісну перелінковку. І це факт, перевірено на практиці.

  12. Оптимізуй картинки, став копірайт на зображення

    З власного досвіду. Цікаві фотографії здатні приводити на сайт дуже багато відвідувачів. Пошук по картинках в пошукових системах використовує величезна кількість користувачів Мережі інтернет. Це обов'язково потрібно використовувати для просування власного сайту. Про те як оптимізувати зображення розказано в окремій великій статті. Там ж таки знайдеш інформацію про користь копірайту.

  13. Сніпет роби привабливим і змістовним

    Про метатег description я вже вище згадував, але тут хочу підкреслити важливість його вмісту. Якщо все зробити правильно, є шанс, що пошуковому роботу сподобається короткий опис сторінки, і він причепить його в якості сніпета в результатах пошуку.

    Але це лише половина щастя. Важливо не лише догодити роботам, але й людям. Коротким описом потрібно зачепити користувача, змусити його клікнути по посиланню над сніпетом. Цього можна досягти, якщо зробити опис інтригуючим та привабливим. Також привернути увагу людини до сніпету можна за допомогою маленьких графічних зображень, які візуально виділяють текст із загальної маси.

    Про те, яким чином можна змусити користувачів клікати по посиланнях в SERP-і, я розповім в одній із наступних публікацій на тему SEO просування. А поки що можу порадити включати в сніпет ключове слово або фразу з прямим входженням, але тільки один раз, щоб не відхопити фільтр за переоптимізацію.

  14. Показуй свій сайт жителям соцмереж, але обережно

    Розкрутка веб-ресурсу в соціальних мережах не має відношення до SEO, — це тема SMM, проте вирішив включити цей пункт в блок білих методів просування сайту. Отже, перш ніж ти почнеш спамити посиланнями в коментарях, знайди людне місце (мурашину стежку) — добре розкручену групу, яка близька тематиці твого блогу. Бо лише цільова аудиторія (ЦА) принесе користь, саме вона дуже важлива для просування сайту в соціальних мережах.

    В принципі, ти можеш поширювати інформацію про свій блог де попало, але такий трафік буде короткочасним, і, як показує практика, шкідливим для показників поведінкових факторів (ПФ). Давай-но глянемо, де ж захований цей підступний "підводний камінь".

    Трафік соцмереж кількість відвідувачів на сайті з Facebook

    На скріншоті вище видно, що трафік йде з соц. мережі Facebook. Начебто все добре, однак, якщо уважно подивитися на панель «Активна сторінка», бачимо, що переходи з Facebook йдуть тільки на головну, а внутрішні сторінки сайту ніхто не відвідує. Дуже погано що немає переходів вглиб сайту, трохи нижче розповім чому.

    Отже, якщо на сайт прийде людина, яка зацікавлена в твоїх статтях, вона 100% не покине його через пару секунд (що пошуковик розцінить як відмову), а прочитає, як мінімум, кілька абзаців, як максимум, перегляне всі публікації, на прощання додавши блог в закладки.

    Однак, якщо до тебе прийшов в гості юзер, який далекий від того, про що ти розповідаєш в своїх публікаціях, скоріше за все, він просто пробіжить поглядом по перших заголовках, і тут же піде з твого чудового сайту не допивши свого чаю. Здавалося б, ну і фіг з ним, нехай іде... Але не все так просто й безболісно, як може здатися на перший погляд. Наслідки такої поведінки користувачів можуть бути дуже сумними для твого проекту.

    Які наслідки можуть бути? Зараз розповім. Рано чи пізно, але пошукова система проаналізує поведінку таких користувачів — випадкових гостей, які складають левову частку всього трафіку на сайт, і винесе свій сумний вердикт: "Контент цього сайту 100 пудово низької якості, інакше користувачі так швидко звідти б не тікали. Давай-но ми його сховаємо подалі від людей". Як наслідок, просідання у видачі всього веб-ресурсу або якихось окремих сторінок — песимізація називається.

  15. Зареєструй свій блог у відкритих каталогах сайтів

    Реєструючи сайт каталогах, твій блог отримає безкоштовні беклінки. На скільки ці посилання якісні — питання залишається відкритим. Але все ж, на перших порах, не варто відмовлятися від можливості отримати кілька безкоштовних посилань. В каталог Яндекса потрапити дуже непросто навіть за гроші. Тому не варто витрачати час і нерви на додавання ресурсу в даний каталог.

    Раджу почати з каталогу Curlie (Open Directory Project), колишній DMOZ. Твій сайт стане на голову вище за інших, якщо його туди приймуть. Для багатьох рекламодавців наявність сайту в цьому каталозі обов'язкова умова при виборі майданчика. Тому приклади всіх зусиль, щоб створити якісний проект, який матиме шанс потрапити в цей каталог. Май на увазі, туди будь-кого не приймають. У всякому разі, з каталогом DMOZ раніше було саме так.

  16. Використовуй сервіси «Мій Бізнес» і «Довідник Яндекса»

    Не зайвим буде додати сайт в сервіс від Google — «Мій Бізнес» (business.google.com), а також в «Довідник організацій» від Яндекса (sprav.yandex.ru або yandex.ru/sprav/). Це додасть твоєму веб-ресурсу певної авторитетності та благонадійності в очах як пошуковиків, так і людей.

    Твій сайт буде з'являтися в різних сервісах даних пошукових систем, наприклад, в Яндекс/Google картах, що може привабити цільову аудиторію і збільшити трафік. Наприклад, в ТОП-10 Google твій сайт може бути видно користувачам навіть в тому випадку, якщо по ключових запитах його немає в ТОП-30.

    У цих сервісах застосовується алгоритм ранжування сайтів, виходячи з рівня KPI (ключових показників ефективності) веб-ресурсу. Наприклад, дуже важливо щоб позитивних відгуків клієнтів було в рази більше ніж негативних, а також оцінка організації, яка відображається зірочками, повинна бути не нижче 4.

  17. Дозволь користувачам залишати коментарі до публікацій

    Якщо дозволити читачам твого блогу залишати коментарі під публікаціями, це позитивно позначиться на ПФ (поведінкові фактори), рівень яких пошуковики включають в розрахунки алгоритму ранжування сайтів у пошуковій видачі. Чим вище рівень ПФ у сайту, тим вище його сторінки в рейтингу, при інших рівних умовах.

    Крім цього, коментарі, написані читачами блогу, доповнюють статті свіжим контентом, тим самим оновлюючи старі публікації, що, в свою чергу, життєво важливо для підтримки рівня лояльності пошукових систем. До того ж, кожен підписник багаторазово повертається на сайт щоб прочитати новий коментар чи відповісти іншому користувачеві. А це той самий дорогоцінний трафік, завдяки якому капають грошенята на твій банківський рахунок.

  18. Стеж за гігієною посилального профілю сайту

    Щоб закохати в себе роботів пошукових систем, слід тримати посилальний профіль сайту в ідеальній чистоті, бо роботи дуже бридливі створіння. Якщо побачать бруд і безлад в посилальному профілі сайту, відвернуться й підуть до більш охайних та доглянутих веб-ресурсів.

    Тобто твій сайт не повинен містити битих посилань (посилання, яке викликає відповідь сервера з помилкою 404). Всі циклічні посилання (коли сторінка посилається сама на себе) повинні бути видалені, деактивовані або закриті від роботів за допомогою php-скрипта, nofollow та/або javascript. Як це реалізувати на практиці, зараз розповім.

    Наприклад, на сайті є розділ з назвою «Біле SEO». Перебуваючи у цьому розділі, однойменна кнопка меню навігації веде на цю ж відкриту сторінку. Робот переходить по ній, і, на свій подив, потрапляє на цю ж сторінку, хоча очікував перейти на нову. Отже, він перейшов за цим посиланням 10 разів, плюнув, та пішов індексувати інші сайти, бо він страшенно ледачий і обмежений в часі. А твоя свіженька стаття так і залишилася недоторканою, бо роботу банально не вистачило часу на пошук нових сторінок.

    Як бути і що робити з цими циклічними посиланнями? Вище я вже згадав про nofollow. Отже, циклічне посилання (та й будь-яке інше) можна закрити від робота таким чином: <a rel="nofollow" href="/white-seo/">Біле SEO</a>. Робот, звісно ж, буде бачити це посилання, проте він не буде по ньому переходити, бо атрибут rel="nofollow" йому каже: "Чуєш, шановний бот, ти туди не ходи, хіба не бачиш що тут написано «No follow»? Тобто не потрібно слідувати за цим посиланням".

    Хочу звернути твою увагу на один важливий момент. Заборона проходження по посиланню за допомогою «nofollow» повинна бути динамічною. Тобто цей забороняючий атрибут повинен з'являтися в елементі <a> лише в розділі «Біле SEO», а з розділу, наприклад, «Чорне SEO», робот може слідувати за посиланням в сусідній розділ — «white-seo».

    Це робиться за допомогою будь-якої серверної мови програмування, наприклад, «PHP» (саме так реалізовано на моєму сайті). Реалізація досить проста, однак, тут багато що залежить від використовуваного двіжка, ну і необхідно мати деякі знання серверної мови.

    У статтях повинно бути мінімум зовнішніх вихідних посилань, а краще взагалі утриматися від таких, особливо на перших порах. Усі беклінки на сайт повинні бути якісними (про те, який беклінк вважається якісним, розповім в одній з наступних публікацій). Також, в обов'язковому порядку, повинна бути присутньою внутрішня перелінковка сторінок.

  19. Додай карту сайту sitemap.xml і robots.txt

    В продовження теми посилань, хочу наголосити на важливості використання на сайті карти сайту в образі файлу «sitemap.xml». У цьому текстовому файлі містяться абсолютні посилання на всі просувні сторінки, які повинні брати участь у рейтингу пошукової видачі. Цей файл допомагає скануючому павуку здійснювати обхід сайту набагато швидше, що істотно підвищує шанси швидкої індексації нових сторінок або повторної індексації старих (оновлених).

    Також варто допомогти роботам пошуковиків зрозуміти, що потрібно індексувати, а що ігнорувати при обході сторінок сайту, через який проміжок часу це робити, та багато іншого. Для цих цілей використовують звичайний текстовий файл «robots.txt», в якому вебмайстри прописують ті чи інші управляючі директиви.

    Вміст файлу «robots.txt», як правило, кардинально відрізняється від сайту до сайту. Це залежить від особливостей використовуваного двіжка й інших моментів. Тобто не потрібно сліпо копіювати вміст цього файлу, і додавати його в такому вигляді на свій сайт, навіть якщо ти використовуєш такий самий двіжок. Бо наслідки можуть бути плачевними.

  20. Вкажи основне дзеркало сайту

    Щоб уникнути неприємних ситуацій з дублюванням сторінок, необхідно вказати головне дзеркало сайту (ім'я домена з www або без www). Це можна реалізувати за допомогою нехитрої інструкції 301-го редиректу, яка міститься в конфігураційному файлі «.htaccess». Виглядає даний редирект приблизно так, як зображено на скріншоті нижче.

Redirect 301 для визначення основного дзеркала сайту

Вищеперелічені білі методи пошукової оптимізації сайту не дадуть бажаного результату, якщо технічна якість веб-ресурсу буде бажати кращого. Щоб SEO-просування було максимально ефективним, слід зробити кроки щодо поліпшення технічної сторони сайту, яка включає в себе цілий пул тілорухів. Нижче описані деякі з них.

Підвищення якості сайту

Використовуємо додаткові інструменти просування

У цьому блоці я представив список з найдоступніших і, на мій погляд, важливих аспектів покращення якості сайту. Цей список, звісно ж, можна розширити, однак, щоб остаточно не відбити у тебе бажання займатись самостійним просуванням сайту, та й взагалі цим бізнесом, я не стану сьогодні описувати всякі технічні моменти. Можливо, в майбутніх публікаціях я про них докладно розповім, але не сьогодні.

  1. Час очікування відповіді сервера

    Дуже важливо щоб час відповіді сервера не був занадто довгим, — не більше 200ms. Якщо швидкість відповіді бажає кращого, слід переїхати на більш жвавий хостинг з високою швидкістю відповіді сервера. Оскільки від швидкості роботи сервера залежить швидкість завантаження сторінки в браузер користувача. А цей параметр бере участь в розрахунку алгоритму пошуковика для ранжування сайтів у своїй видачі.

  2. Швидкість завантаження HTML

    Вище я вже згадав про важливість в просуванні високої швидкості завантаження веб-сторінок. Про те, якими інструментами можна виміряти час завантаження сторінки, детально з картинками розказано в статті. У майбутніх статтях я більш детально розповім яким чином можна поліпшити результати даного показника. Підпишись на оновлення блогу, щоб не пропустити нові публікації.

  3. Мобільна версія сайту

    У зв'язку з поголовною смартфонізацією (діджіталізацією) населення планети, прийшла ера мобільного трафіку. Якщо не зробити мобільну версію сайту, ти ризикуєш залишитися на задвірках всесвітньої павутини. Сьогодні кожен сайт повинен володіти адаптивним дизайном. Адаптація дизайну старого сайту під мобільні пристрої завдає їх власникам багато клопоту. Але у тебе новий сайт, який адаптований під гаджети, чи не так. Якщо ні — біда.

  4. Унікальний дизайн сайту

    І якщо вже мова зайшла про дизайн, не можна ігнорувати і той факт, що пошукові системи до копіпасту відносяться як до зла, яке не залишиться безкарним. Копіпаст — це не лише запозичений контент з чужого сайту, але й вихідний код теж має відношення до даної категорії.

    Роботи бачать твій сайт не так як ти. Для них фонові зображення дизайну — не авторитет. Зате початковий код вони дуже добре вміють читати. Відтак, вони мають можливість порівнювати та аналізувати вихідні коди всіх існуючих сайтів. Якщо ти використовуєш безкоштовний шаблонний дизайн якогось популярного двіжка, зрозуміло, що вихідний код сайту далекий від унікальності, а значить, це ніщо інше як банальний копіпаст.

    Щоб унікалізувати шаблонний дизайн блогу, необхідно змінити структуру меню навігації, розміри й розташування якихось блоків, назви айдішників та класів в стилях тощо. Все це можна зробити самостійно, якщо витратити певний час на вивчення HTML і CSS. Насправді, ці технології тільки на вигляд такі страшні і неприступні. Досить посидіти тиждень другий за комп'ютером, почитати/подивитися уроки, і дуже швидко все стане зрозуміло та легко. Головне в цій справі — бажання вчитися новому.

  5. Валідний HTML код

    Так ось, коли HTML і CSS тобою буде підкорено, настане час перевірки отриманих навичок на валідаторі (validator.w3.org). Сайт консорціуму закликає вебмайстрів дотримуватися стандартів написання початкового коду веб-сторінок. Наскільки великим є вплив валідності коду на любов пошукових систем, мені наразі не відомо.

    Однак, підозрюю, що алгоритми рано чи пізно почнуть включати в свої розрахунки ранжування сайтів і цей параметр. А може їх алгоритми вже зараз тишком-нишком беруть до уваги валідність вихідного HTML-коду, як знати. Тому краще відразу зробити все правильно (як рекомендують) і спати спокійно.

  6. Кросбраузерна верстка

    Все б нічого, та діло в тому, що існує браузер Internet Explorer та його версії IE5, IE6, IE7, IE8, IE9, IE10 і так далі, які наполегливо юзає величезна кількість офісного планктону, серед якого є багато потенційних клієнтів і читачів. Біда в тому, що розробники IE ніяк не хочуть домовлятися з іншими розробниками сучасних браузерів. Таким чином, з року в рік, виходять все нові версії IE, які не підтримують купу сучасних фіч, але які прекрасно розуміють й відображають інші надзвичайно популярні браузери — Chrome та Firefox.

    Як не крути, але бажано щоб твій сайт виглядав однаково добре навіть на прадавніх браузерах. Верстка сайту повинна тримати удар в найкритичніших випадках (все повинно відображатися рівно починаючи хоча б з IE7). З цієї причини, вебмайстри змушені адаптувати верстку сайтів під браузер Internet Explorer. Особливо багато сверблячки нижче попереку у верстальників викликає адаптація сучасного сайту під IE5, IE6, IE7, IE8, IE9. Бо починаючи з IE10 свербіж помітно слабшає, нервові клітини починають потроху відновлюватись.

  7. Коректне відображення сайту на мобільних пристроях

    Крім великих десктопних моніторів, є ще й мобільні пристрої з невеликими розмірами екранів. Але сайт повинен правильно і красиво відображатися на всіх пристроях незалежно від роздільної здатності дисплеїв. Щоб задіяти адаптивний дизайн, необхідно використовувати в початковому коді всіх сторінок спеціальний метатег «viewport». У вихідному HTML-коді твого сайту він повинен виглядати приблизно так: <meta name="viewport" content="width=device-width, initial-scale=1.0">.

  8. Зазначення кодування «UTF-8»

    Раз вже мова зайшла про метатеги, не можна пройти повз метатег що вказує на кодування HTML-документа. Цей метатег для HTML5 виглядає наступним чином: <meta charset="UTF-8">. Чому саме «UTF-8» а не «Windows-1251», приміром? Тому, що кодування «UTF-8» універсальне. Воно підтримує набагато більше символів, у порівнянні з тією ж «Windows-1251».

    Ну і до купи відразу скажу пару слів про один маленький мовний атрибут, який підказує роботу, яка мова використовується на сторінці як основна. В елементі <html> потрібно прописати атрибут lang="ua" якщо мова на сторінці, в основній своїй масі, українська. У коді це має ось такий вигляд: <html lang="ua">. Дуже корисно для мультимовних сайтів.

  9. Стиснення HTML, CSS, JS файлів і чистота коду

    Говорячи про верстку сайту, не можна не згадати про HTML і CSS. Власне, ця парочка несе відповідальність за відображення сайту в браузерах. Повертаючись до питання про швидкість завантаження HTML, слід сказати, що HTML та CSS обов'язково повинні бути стиснуті. Стиснення gzip на стороні сервера, як правило, вирішує це питання.

    Однак, не завжди є можливість використовувати цей зручний інструмент. Тому доводиться усі HTML та CSS файли стискати вручну, щоб прискорити завантаження сторінки і знизити навантаження на сервер. Стиснення HTML, CSS, і JS файлів полягає в наступному. Потрібно з коду прибрати всі переноси рядків, зайві пробіли (табуляції) та коментарі.

    Також дуже важливо стежити за чистотою CSS-коду. Всі невикористовувані CSS правила слід видалити з файлів, щоб знизити їх вагу і, тим самим, прискорити завантаження сторінки. Також рекомендую по максимуму оптимізувати стилі CSS. Як це зробити, розповім в окремій статті.

  10. Коментарі у вихідному коді сторінки

    Щоб закінчити тему оптимізації вихідного коду веб-сторінок, скажу наступне. Коментарі в HTML / CSS / JS / PHP кодах сторінки слід робити короткими але змістовними. Не потрібно розписувати в коментарях буквально кожну дрібницю. Сконцентруй увагу на головних моментах, і коротко їх опиши. Чим менше символів (байтів) в коді, тим швидше HTML-документ / PHP-скрипт буде оброблений інтерпретатором / роботом, як результат, користувач побачить сторінку в своєму браузері швидше.

  11. Підключення JS-скриптів

    Завершуючи тему підвищення швидкості відображення контенту в браузері користувача, хочу звернути увагу на розташування JS-скриптів у HTML-коді сторінки. Усі JS-скрипти слід підключати в самому кінці HTML-коду або після основних контентних блоків. Це в рази прискорить завантаження розмітки HTML та стилів CSS. Тобто поки JS-скрипти ще завантажуються, користувач вже бачить твій блог і читає статтю.

  12. Сторінки помилок 401, 403, 404

    Іноді користувачі потрапляють на сторінки помилок: 401, 403, 404 та ін. Сервер, як правило, ці сторінки віддає користувачеві з дизайном і вмістом хостера, який туди вішає різного роду рекламу. Щоб не лякати відвідувачів такими жахами, слід створити власні сторінки помилок.

    Окрім цього, на власних сторінках помилок є можливість розмістити посилання на основні розділи, за якими, в разі чого, користувач зможе повернутися на сайт. Читай у статті про те як створювати сторінки помилок і підключати їх до сайту.

  13. Функціональність використовуваної CMS-ки

    Дуже важливо щоб система управління контентом давала можливість веб-майстру керувати вмістом сайту, прописувати потрібні метатеги в HTML-коді і якісь рядки в скриптових файлах. Також щоб була можливість модернізувати зовнішній вигляд сайту та внутрішню структуру.

    Ідеальний варіант — це написати власну CMS з нуля, з необхідним функціоналом. Однак, далеко не кожен веб-майстер володіє мовами програмування, тому варто вибирати таку CMS-ку, в якій будуть доступні всі вищезазначені можливості.

  14. Рівень вкладеності посадочних сторінок та URI

    Продовжуючи тему функціональності CMS, слід звернути особливу увагу на те, чи є можливість управляти рівнем вкладеності сторінок, який не повинен перевищувати трьох кліків від головної. Тобто, просувна сторінка повинна бути доступна або з головної, або з розділу.

    У будь-якому випадку, кількість кліків, яка необхідна для переходу з головної сторінки на просувну, не повинно бути більше двох. Також хочу звернути увагу на рівень вкладеності URI, який також не повинен бути занадто глибоким. Чим ближче буде фізично знаходиться URI просувної сторінки від кореня сайту, тим швидше його знайде пошуковий робот.

  15. Сервіси збирання статистики

    Щоб моніторити поведінку користувачів на сайті, їх ставлення до тієї чи іншої сторінки (продукту), аналізувати ті чи інші показники ефективності сайту, необхідно використовувати дані зібраної статистики тим чи іншим чином. Володіючи деякими навичками програмування, можна написати додаток, який буде збирати ті чи інші дані для аналізу KPI веб-ресурсу.

    Якщо немає бажання і часу на вивчення мов програмування, можна скористатися готовими програмними рішеннями, які надають пошукові системи — «Google Analytics» і «Yandex.Metrika». Використовувати можна одразу дві ці метрики або якусь одну, дивлячись в якій пошуковій системі ти просуваєш свій проект.

    Крім можливості моніторингу тих чи інших показників ефективності, дані сервіси можуть бути корисні для поліпшення відносини пошуковика до сайту, за умови, що сайт відповідає всім вимогам, які рекомендує пошуковик. В іншому випадку, зібрані дані інструментом статистики можуть стати причиною погіршення ставлення пошукової системи до сайту. Тобто це палиця з двома кінцями.

  16. Наявність логотипу в шапці сайту

    У кожного сучасного веб-сайту повинен бути логотип, який чітко відображає тематику проекту та його напрямок. В одній зі своїх минулих статей я розповідав як створити логотип для сайту, яким критеріями він повинен відповідати. Якщо у тебе немає досвіду в створенні логотипів, рекомендую звернутись до фахівців у цій сфері, бо від логотипу, так само як і від якості контенту, в деякій мірі, залежить успішність просування веб-проекту і бренду.

    Не рекомендую користуватись онлайн сервісами, де можна взяти готову картинку логотипу. Логотип повинен бути унікальним, таким, що запам'ятовується, аби твій проект можна було впізнати серед сотень тисяч твоїх конкурентів. Якщо ти володієш хоча б базовими знаннями Фотошопу (що рекомендується для будь-якого веб-майстра), раджу намалювати унікальний логотип, який, з часом, зможеш допиляти (довести до досконалості).

  17. Favicon для сайту

    Точно так само як і логотип, у сайта має бути запам'ятовуваний і унікальний Favicon. Цю маленьку картинку, як правило, створюють з готового логотипу, трохи оптимізувавши останній. Favicon грає важливу роль у просуванні веб-ресурсу. Створити Favicon у Фотошопі можна дуже швидко, маючи ісходник логотипу. За посиланням вище можна перейти на статтю, де все наочно показано, яким чином створюється Фавіконка, і скільки часу це забере.

  18. Уникай використання Frames та Flash

    Не рекомендую використовувати на сайті елементи <frame> та <iframe>. Ці елементи роботи пошукових систем бачать але ігнорують, і не індексують їх вміст. Також не слід на просувних сторінках використовувати Flash (банери, відеоролики). Крім того, що роботи обходять стороною ці елементи, на гаджетах Apple файли Flash не відображаються, і наразі вони не планують підтримувати цей формат.

  19. Перевіряй сайт на наявність вірусів і вразливостей

    Щоб виконати перевірку сайту на вразливість, а також знайти та видалити віруси в інфікованих файлах двіжка або в окремих документах, які хакери тихцем залили на твій сервер, слід періодично звертатися до фахівців у цій галузі.

    Дані заходи можна періодично робити самостійно, проте, тут знання HTML та CSS не допоможуть. Необхідно добре орієнтуватися в серверних технологіях, а це доступно далеко не кожному веб-майстру. Однак, якщо періодично оновлювати файли двіжка (видаляти стару версію двіжка з сервера і заливати останню), можна, до певної міри, убезпечити свій сайт від вірусів.

    Також рекомендую моніторити змінення файлів на сервері. Цю функцію надає твій хостер, сподіваюся це так (мій хостер це робить). Якщо побачиш, що якісь файли двіжка були змінені без твого відома, або з'явилися нові, відразу ж зайди на сервер та видали ці нові файли, а модифіковані заміни з копії CMS, яка зберігається на ПК.

    Але цього недостатньо для забезпечення безпеки сайту. Якщо хакери пролізли на твій сервер, або ж їм вдалося модифікувати файли не заходячи на сам сервер, очевидно, що є дірка через яку вони пролазять. Щоб знайти цю дірку і вчасно закрити її, без спеціальних знань все ж не обійтись. Тому моя рекомендація в першому абзаці даного пункту актуальність не втрачає.

    Це потрібно для того, щоб твій сайт не потрапив в чорний список пошукових систем і антивірусів. Якщо це станеться, на SEO-просуванні можна ставити великий жирний хрест, бо в сніпеті з'явиться приблизно такий напис: «Даний сайт може загрожувати вашому комп'ютеру». Називається, приїхали...

  20. Використовуй захищений протокол передачі даних — HTTPS

    Раніше на цей протокол переходили різного роду фінансові майданчики, де необхідно захищати персональні дані користувачів. Сьогодні на цей протокол поголовно переходять практично всі сайти, які не мають навіть форми зворотного зв'язку, не кажучи вже про профілі користувачів.

    З чого раптом всі дружно кинулися переводити свої сайти з HTTP на HTTPS? Відповідь проста як дві копійки. Ажіотаж навколо HTTPS почався тоді, коли пошукові системи, тим чи іншим чином, почали виділяти такі сайти у видачі, надаючи їм певної переваги над іншими. Виходячи з того, що веб-майстри прагнуть будь-яким чином заманити відвідувачів на свої сайти, всі кинулися прикрашати ім'я домену зелененьким замочком.

    Задля справедливості, слід зазначити і той факт, що використовуючи HTTPS, браузер зможе здійснювати більш жваву передачу даних по протоколу HTTP/2.0, а це все та ж швидкість завантаження сторінки. Також застосування HTTPS сприяє підвищенню рівня захисту системи безпеки сайту. Тобто окрім шифрування передаваних даних, з'являється можливість використовувати ті чи інші HTTP-заголовки, наприклад, заголовок HSTS (Strict Transport Security), HPKP (Public Key Pinning) та ін., про які я детально розповім в майбутніх публікаціях.

Немає меж для досконалості

Резюмуючи вищесказане, хочу сказати, що працювати над підвищенням якості сайту в технічному і змістовному плані потрібно буде протягом усього життя проекту. Періодично з'являються нові вимоги до сайтів з боку пошукових систем. Рівень кібер-загроз також весь час зростає, оскільки програмістів з кожним днем стає все більше, відповідно, зростає кількість методів для атак веб-ресурсів.

SEO-просування також буде розвиватись і трансформуватись використовуючи все нові методи досягнення поставлених цілей. Те, що добре працює сьогодні, завтра вже може бути не актуальним. Можливо, з часом, абсолютно білосніжне SEO, про яке я сьогодні розповідаю, в найближчому майбутньому перейде в розряд забороненого — чорного SEO, про яке піде мова далі.

Чорне SEO

Короткий опис заборонених методів просування сайту

Зараз я розповім про деякі заборонені (чорні) методи просування сайтів у пошукових системах, які однозначно приведуть до накладання санкцій з боку останніх. Отже, щоб гарантовано загнати сайт під фільтри пошукових систем, необхідно використовувати хоча б один із заборонених методів описаних нижче.

  1. Використання ключових слів в атрибуті «title»

    Отже, почну опис чорних методів оптимізації з невинних, на перший погляд, атрибутів «title». Щоб повідомити пошуковику прямим текстом, що тут попрацював горе-оптимізатор, слід у всіх посиланнях і картинках на додачу використовувати атрибут «title», але обов'язково з входженням ключових слів та фраз. Чим більше буде кількість тайтлів на сайті, тим швидше прийде осяяння до ботів пошукових систем.

  2. Анкорні посилання зі стронгами в заголовках

    Ще один "невинний" метод оптимізації — використання в заголовках h1-h3 посилань, анкори яких містять ключ обгорнутий в замаскований елемент «strong». Така собі гримуча суміш переоптимізаціі. Фільтр за таку зухвалість можна відхопити не відразу, та покарання прийде обов'язково, не сумнівайся.

  3. Масова закупівля беклінків на посилальних біржах

    Для того, щоби випробувати алгоритм пошуковика на предмет пильності, влаштуй оптову закупівлю зворотних посилань на посилальних біржах. Щоб привернути увагу фільтра «посилальний вибух», не обмежуйся закупівлею 50-100 посилань, купи штук 500-800, а краще відразу пару тисяч, щоб відчути ударну хвилю вибуху після найближчого апдейту.

  4. Створення текстів в автоматичному режимі

    Тут все просто: запускаєш в Мережу спеціально навченого бота, який спритно здере з якихось сайтів тексти, і злегка їх перемелить, додавши в цей фаршмяк величезну кількість потрібних ключових слів. Головне, щоб тексти були добре переспамленими, тоді ефект не змусить себе довго чекати.

  5. Зспамленість текстів ключовими словами

    Дуже добре фільтри клюють на переспамлені тексти, особливо коли вони нахабно здерті з інших сайтів. Щоб тошнотність текстів почала викликати у бота блювотний рефлекс, необхідно довести величину тошнотності до певного рівня, наприклад, від 10% і вище. Збільшивши цей параметр до 40-50%, блювота бота буде чутна у всій окрузі, на яку позбігаються всі його колеги по цеху. І ось тоді настане довгоочікуваний удар дзвону — БАН-н-н-н.

  6. Використання краденого контенту

    Дійсно, навіщо напружувати свій моск, якщо можна елементарно поцупити купу контенту з інших сайтів, і, передчуваючи солодкий хрускіт Франклінів, потирати долоні біля печі. Але вся заковика в тому, що очікування профіту може затягнутись на довгі місяці або й роки (долоньки біля печі на той час можна протерти до кісточок), бо на двохсоті сторінки органік-видачі заходять лише заблудлі душі в пітьмі Мережі, яких, на щастя, не так вже й багато.

  7. Приховані тексти

    Є дуже хороший засіб для потрапляння під фільтри пошуковиків — невидимі тексти на сторінці. Тобто тексти як-би є, але їх не видно з-під фонових картинок або через злиття кольору шрифту з кольором фону. Також фільтри обожнюють коли вебмайстри виносять тексти за видиму область сторінки або шрифт роблять розміром в нуль пікселів (font-size:0px).

  8. Штучна накрутка поведінкових факторів

    Викликати непідробне обурення пошукових систем у вигляді накладених санкцій можна абсолютно безневинним, на перший погляд, заняттям — накруткою поведінкових факторів. Зрозуміло, що на твій ГС люди не будуть ходити, бо не для них він створений. Тому залишається лише імітувати життя на мертвонародженому сайті. Прикро, але пошуковики далеко не дурні, вони нюхом чують зомбі, які сновигають по сторінках твого сайту, імітуючи поведінку рум'яних інтернет-серферів.

  9. Свопінг (от англ. «swap»)

    Довести пошуковика до інфаркту можна дуже просто. Спочатку просуваєш в ТОП-10 сторінку з якимось не дуже конкурентним але затребуваним пошуковим запитом. Після чого міняєш вміст цієї сторінки на інший, який найкращим чином підходить для продажу лінків. Словом, барижиш певний час посиланнями з цієї сторінки, яка через деякий час, в кращому випадку, відлітає на дно видачі. Ну а в гіршому, ця сторінка тягне за собою на дно весь сайт. Бо не годиться ставити в незручне становище пошуковика перед добропорядними користувачами Мережі інтернет.

  10. Клоакінг (от англ. «cloak»)

    Щоб придбати для сайту довічний абонемент в БАНю, слід скористатися чудовим методом чорного SEO — клоакінгом. На практиці цей метод виглядає наступним чином. Створюєш два варіанти контенту, один для роботів (з набитим ключами текстом), другий для людей (цікавий текст, що легко читається). Застосовуючи нехитрі програмні засоби, за однією і тією ж URL-адресою, показуєш різний контент. Зайшов бот — згодував йому текстовий фаршмяк з ключами. У той же час, за цією адресою, людина побачить зовсім інший контент.

Заборонені методи SEO чорна кішка

Даний список чорних методів просування можна істотно розширити, бо способів отримання санкцій від пошукових систем доволі багато. Чорна кішка може перейти дорогу вебмайстру в найнесподіваніший момент. По "зебрі" коти, як правило, не ходять.

Тому будь напоготові, адже алгоритм пошуковика може змінитись у будь-який момент. І твій вчорашній відносно білий метод оптимізації завтра може стати сірим або взагалі чорним. Можливо, в майбутньому я додам сюди ще дещо цікавеньке. Але наразі цього достатньо, щоб мати загальне уявлення про заборонені методи просування сайтів.

Загальні рекомендації по SEO-просуванню

Фокус на якість контенту

Щоб підкорити висоти органічної видачі пошукових систем, необхідно постійно вдосконалюватись у створенні якісного, корисного та цікавого контенту для людей. Це складний і довгий шлях, бо результат вкладених зусиль у просування сайту може бути помітний через півроку або навіть кілька років. Досить не просто тривалий час підтримувати мотивацію в тонусі, не бачачи очікуваного результату.

Але якщо ти не опустиш руки, і будеш продовжувати наповнювати свій блог корисним користувачеві контентом, всі твої зусилля не пропадуть марно. Якісний і корисний контент завжди буде в тренді та в пріоритеті у пошукових систем. Алгоритми ранжування сайтів весь час будуть вдосконалюватись. І лише висока якість контенту, як золото, завжди буде мати цінність в очах пошуковиків.

Біле SEO-просування — не панацея

Потрібно використовувати всі доступні, дозволені способи просування сайту. Соціальні мережі мають величезний потенціал для розкрутки блогу в Мережі інтернет. Вони вже сьогодні стають незамінним інструментом в онлайн бізнесі, до якого блогінг має пряме відношення. У майбутніх публікаціях я буду ділитися власними напрацюваннями в області SMM. Тому стеж за новими статтями, підписавшись на сповіщення в соц. мережах. На цьому все. Удачі в просуванні! Бувай!

Щоб зрозуміти наскільки ти в темі, пройди тест 👇
  • 100 секунд на проходження тестуRealCase

    Тест
  • 5 питань по тематиці сайту
  • 4 варіанти відповідей на кожен
Готовий(-а) перевірити рівень своїх знань?

  •  Цей тест ще ніхто не проходив, ти будеш першим(-ою)

   
  
 
 
📚Не проґав!
💬Коментарі (Ще немає... твій буде першим)  🔔 1
    • Ліміт 2000 символів
    • залишилось: