Апдейт іде, красу несе… І цій красі радіє все!

Кирик Наталья
Кирик Наталія
Ти прочитаєш це за 13 хвилин(и)

На початку березня Google приніс чергову порцію оновлень для авторів текстового контенту. Основні зміни стосуються ранжування, боротьби зі спамом і клікбейтом. Цього разу зміни для деяких вебресурсів можуть бути дійсно радикальними. Розповідаємо детально, чого саме чекати та що про це думають SEO-експерти. 

Боротьба зі спамом чи з ШІ-контентом? Розбираємося

Насамперед політика Google спрямована на те, щоб унеможливити появу в результатах пошуку неякісного контенту. Зокрема, йдеться про три ключові моменти:

  • неприпустиме використання доменів з терміном реєстрації, що минув;
  • неприпустиме масштабування контенту;
  • зловживання репутацією сайту.

Нові підходи мають ефективно боротися з не зовсім чесними діями, до яких усе частіше вдаються деякі автори цифрового контенту. Сайти-порушники будуть виключені з пошукової видачі або суттєво втратять свої позиції. Сповіщення про це власники сайту отримають в особистому кабінеті Search Console. 

На новину про апдейт, опубліковану в блозі Google, вже відреагувала SEO-спільнота. Багато фахівців зробили доволі похмурі прогнози про масштабну боротьбу з контентом, створеним за допомогою штучного інтелекту (ШІ). Але ця думка не єдина. 

Ось що думає про чергове оновлення Сергій Кокшаров, @devaka:

«Апдейт пов’язаний насамперед з якістю контенту, але він необов’язково має бути згенерованим ШІ. Йдеться про контент, який створюється суто під Google для отримання швидких результатів і не несе цінності для користувачів. Водночас використовувати ШІ — це нормальна практика, але не тільки заради автоматизації створення контенту з думками лише про трафік». 

А SEO-фахівець Марко Федоренко рекомендує дочекатися результатів апдейту і тільки після цього робити висновки:

«Поки апдейт не пройде, ми точно не побачимо його результатів — переможців та тих, хто програв. З того, що випливає в публічній площині, то карають тих, хто публічно просував використання ШІ для швидкого отримання трафіку з органічного пошуку, й переважно це ручні санкції. Також є проблема з деіндексацією сайтів, однак наразі неможливо сказати, чи точно вона пов’язана з результатами апдейту чи, можливо, це якийсь баг у системах Google, пов’язаний із пошкодженням інтернет-кабелю, яке вплинуло на 25% світового трафіку». 

Як Google ідентифікує ШІ-згенерований контент?

Позаяк точної інформації з цього питання немає, всі точки зору, викладені нижче, є лише здогадами. До речі, зовсім недавно в Google наголошували, що неважливо, як саме створено контент — людьми чи за допомогою ШІ. Отже, з великою імовірністю цю позицію було переглянуто. Ймовірно, це сталося через те, що автори контенту почали бездумно заливати на сайти не дуже якісні тексти замість того, щоб використовувати штучний інтелект лише як помічника. 

Марко Федоренко вважає, що з огляду на ручні санкції Google використовує для ідентифікації ШІ-контенту людей. І рекомендує робити саме той контент, який буде цікавим для цільової авдиторії сайту: «В такому випадку він буде ОК і для Google також. Насправді з одним і тим же промптом у масштабах 1000+ запитів у 30% я отримую некоректні відповіді чи галюцинації. Тобто сучасний ШІ без верифікації людиною дуже ненадійний. 

Приклад елементарного запиту до Gemini від Google:

* Не має відношення до Wezom. Wezom — IT-компанія, а не агенція.

Тут у, здавалось би, правильну відповідь інтегровано вигадані факти: Ярослав не має відношення до згаданої IT-компанії, і я уперше чую про цей блог. Тобто використання штучного інтелекту без контролю несе високі ризики обману користувачів».

Сергій Кокшаров упевнений, що зараз визначати генерацію складно, а в деяких випадках майже нереально, але має певні припущення щодо того, як це робить пошуковик: «Швидше за все, Google аналізує поведінку користувачів та їхню взаємодію з контентом, а також контекст, під який було створено цей контент. Наприклад, це зручний опис товару в картці чи стаття під трафіковий запит на сайті, який заробляє на лідах, зливаючи їх на партнерки. Саме тут контекст відіграє важливу роль».

У наявності специфічних інструментів сумнівається і Данііл Хайло, Head of SEO: 

«Наш досвід підказує, що жодного інструмента, який би з вірогідністю 100% показав, чи був текст написаний людиною, у загальному доступі не існує. Ми використовуємо низку інструментів для аналізу на ШІ, і всі вони не справляються із завданням. Будь-який ШІ вчиться на базових текстах, а це стандартний стиль написання багатьох копірайтерів. Водночас, якщо писати унікально, то текст для пошукової системи стає складним. По суті, унікалізація шкодить тексту. Найймовірніше, Google використовує низку метрик на кшталт кількості контенту, його якості, натяку на стиль написання ШІ, додаткові перевірки в самих же AI, і на основі загального результату перевірки робить висновки». 

 А ось що думає з цього приводу Євген Гуменюк, CEO & Founder NeedmyLink.com:

«На початку березня багато сайтів навіть із якісним контентом різко втратили всі сторінки з індексу, але вже через кілька днів усе повернулось на свої позиції. Тому апдейт ще триває, і останнього слова ще не було. Але те, що Google починає песимізувати сайти на відверто слабкому контенті, згенерованому штучним інтелектом, — це факт. При цьому ШІ-детектори не є реальним підтвердженням, тим паче для Google. Насамперед страждає неякісний контент, а ось його ідентифікувати можна дуже швидко».

Максим Федорук вважає, що Google використовує перевірку на збіг із певними повторюваними шаблонами та конструкціями в тексті:

«Що більше збігів, то більша вірогідність, що це ШІ. Також для розширення списку патернів алгоритми тренуються на великій кількості текстів, що зі 100% ймовірністю написані людьми. База знань, на якій Google тестує свої алгоритми, величезна. Водночас сервіси детекції ШІ-контенту працюють 50/50. Навіть на старих текстах, які точно не згенеровані штучним інтелектом, можна отримати результат, що це ШІ-контент. Тому ці дані, як на мене, дуже сирі, щоб на них спиратись. Водночас потрібно розуміти, що не весь ШІ-контент однаковий. Усе залежить від людини за штурвалом і, відповідно, якості промпту, оптимізації тексту після генерації тощо».

Олександр Павлуцький вважає, що Google застосовує санкції до тих сайтів, які вважає спамними: 

«Тут не всюди чистий ШІ-фактор. Спам може бути як копірайтерським контентом (коли беремо копірайтерів і вони роблять 1000 статей на сайті, штампуючи «тисячознаки»), так і генерованим. Тому що рівнозначно повипадали як копірайтерські сайти, так і ШІ. При тому сам текст — не основний фактор оцінки сторінки. Умовно кажучи, на сайті може бути 1000 кльових сторінок і одна підозріла для Google, тоді він її спокійно пропускає. Але якщо на сайті 1000 сторінок, і всі підозрілі щодо ШІ, — тоді це інша справа». 

Про неоднозначність твердження щодо ШІ-згенерованого контенту говорить і Катерина Якименко, Senior SEO specialist в Imageupscaler.com

«Думаю що апдейт про неякісний контент — просто так вийшло, що ШІ пише більше неякісного контенту, ніж автори. Швидше за все, Google керується поведінкою користувача: якщо людина не задоволена прочитаним і повторно шукає відповідь на те ж саме питання. Водночас знайомий розробник вважає, що пошуковик може мати свій інструмент, який визначає ШІ-контент і який натренували за весь цей час. Я особисто так не думаю (просто відчуття, жодних аргументів) — можливо, тільки якісь суперочевидні патерни».

Юлія Борушок, співзасновниця bizZzdev: 

«Офіційно ми мали відразу два апдейти: spam та core. Перший вже офіційно завершився, а другий продовжує шукати своїх жертв. Обидва були спрямовані на боротьбу зі спамом та неякісним контентом у пошуку, і проєкти на низькоякісному ШІ-контенті постраждали найбільше. З іншого боку, невідомо достеменно, чи можливо взагалі ідентифікувати такий контент. Не треба забувати, що Google може помилятися, і не всі продукти/апдейти в нього можуть виходити, а ШІ-ініціативи взагалі не є найкращими на ринку — достатньо згадати провальний запуск інструмента для генерації фото. 

Наразі є чітке розуміння, що Google не спроможний виявляти ШІ-контент, та й взагалі текстове ранжування може бути зламане. Все тому, що одним із варіантів виходу з-під фільтру HCU було повне видалення контенту зі сторінки, і ці сторінки, на яких взагалі не було контенту, повертали свої позиції з часом. Щодо інструментів, які виявляють ШІ-контент, то це все — гадання на кавовій гущі і просто маркетинг від компаній, які заробляють на цьому великі кошти. Ми не використовуємо суто ШІ-контент на наших або клієнтських сайтах, але до нас вже були звернення після потрапляння сайту під ручні санкції під час апдейту. В одному такому кейсі була масова генерація сторінок (близько 20 тисяч), і контент дійсно був низької якості».

Як вплинув березневий апдейт на позиції сайтів у Google?

Хоча на остаточне завершення такого глобального апдейту зазвичай потрібно кілька тижнів, деякі SEO-фахівці вже помітили певні зміни на своїх проєктах. Але досі не знають достеменно, чи апдейт їх спричинив, чи просто збіг обставин. Якщо в деяких випадках спостерігається штатне ранжування сторінок (зокрема у Марко Федоренко), то в інших можливі варіанти. Наприклад, Євген Гуменюк стверджує: «Один сайт втратив усі сторінки з індексу, хоча через кілька днів вони повернулися. Чогось системного в клієнтських або особистих проєктах я не помічав». 

А Георгій Рисак навів кейс із сайтом у спортивній ніші, що був повністю зроблений на інформаційному ШІ-контенті: «Апдейт його вбив. Загальні втрати я оцінюю в $12–15 тисяч, адже це був рік роботи: розробка сайту, зарплати людей, закупівля посилань тощо». 

Сергій Кокшаров із власних спостережень зробив висновок, що просіли деякі контентні сайти, в яких на добу виходить до десяти нових статей. Але водночас він не рекомендує пов’язувати цю тенденцію саме з наявністю ШІ-контенту — швидше за все, проблема в його якості та користі. 

Максим Федорук переконаний, що апдейтів взагалі було кілька, і кожен із них вплинув на видачу: «Зараз Google дуже любить викатувати або кілька апдейтів одночасно, або один за одним. Це трохи плутає карти вебмайстрам, бо у випадку просадки позицій вибірка вірогідних проблем стає більшою».

Артем Пилипець, керівник SEO7 та автор навчального проєкту «Школа SEO», також вважає, що Google не карає виключно за ШІ-згенерований контент: 

«Згідно з нашою внутрішньою статистикою, далеко не всі сайти, які використовували згенерований штучним інтелектом контент, були покарані в цьому апдейті. Спираючись на наш попередній аналіз, передусім були знижені у пошуковій видачі сторінки та сайти, які не несли в собі додаткової інформаційної цінності… Проте Google може використовувати ШІ-контент не як вирішальний фактор, а як певний сигнал. Наприклад, у нас є сайти, які просіли, але текст для них був написаний професійними копірайтерами».

Данііл Хайло вважає, що робити остаточні висновки ще зарано: «Після апдейту Google повинен пройти певний термін, щоб сталася переоцінка сайтів і сторінок. Але на перших етапах видно, що багато великих проєктів, які задовольняли запит користувачів (а це основна мета цього пошуковика, як він каже), отримали просідання. Замість них вилізли сайти з низькою якістю, малою кількістю вибору товарів, які часто навіть не відповідають на запит користувача. Найімовірніше, це пов’язано з тим, що Google запустив свій ШІ для аналізу сайтів, щоб пришвидшити процес оцінювання й переіндексації, і на відміну від старого машинного навчання, впровадження цього ШІ потребує додаткового часу».

Кого «зачепило» найменше та найбільше і чому?

Березневий апдейт вплинув не на всі категорії сайтів. Зокрема, можна виділити тих, хто постраждав найбільше, а кого майже не зачепило. 

Георгій Рисак зі своїх спостережень робить висновки, що «виросли такі майданчики з UGC-контентом та серйозною репутацією, як Reddit, LinkedIn та Quora, але водночас менш відомі платформи з UGC-контентом, але без акцій на IPO, просіли». На його думку, у Google більше причин довіряти експертності контенту на таких майданчиках.

Євген Гуменюк вважає, що позиції втримав «той, хто поставив генерацію контенту не на масовий потік, а з фокусом на якість. А також той, хто робив мікси генерації та ручного копірайтингу або мав дуже якісний підхід у промпт-інжинирингу для написання SEO-контенту».

Максим Федорук дав оцінку впливу апдейту з погляду сегмента e-commerce: «Щодо великих маркетплейсів і магазинів-мільйонників є негативний тренд, коли нішеві сайти (монобренди) або сайти брендів почали забивати видачу за запитами брендів і модельним рядом. Як приклад, певний час за запитом модельного ряду одного з відомих брендів мали перших 5 результатів видачі — це сайт бренду. Також дуже погіршились запити категорія + бренд у топмаркетплейсів. Але думаю, що не існує сайтів, які взагалі не вразливі до апдейтів. Сьогодні працює одна стратегія, а завтра за стратегію, яка дала змогу зайти в топ, ти отримуєш у лоб. Тому все питання у швидкості реакції на зміни».

Також Максим Федорук вважає, що найбільше каратимуть сайти, власники яких через парсинг конкурентів розгорнули величезні ресурси для отримання трафіку, в результаті чого контент, створений ШІ, немає жодної цінності. Крім того, є ще одна проблема: «Назвемо це переоптимізацією сайту, коли одночасно створюється багато сторінок під ключові слова пошуку, але самі сторінки не мають сенсу для користувача». Також експерт впевнений, що саме за ШІ-контент карають не всіх: «У наших текстах є позитивна динаміка в позиціях для сторінок з ШІ-контентом, це приблизно додаткових 10% по всій тестовій виборці. Але тут багато нюансів щодо трастовості сайту, типу сторінки, якості генерації та інших факторах».

Водночас Олександр Павлуцький виділив ще одну категорію сайтів, які постраждали найменше. Це продуктові сайти, великі магазини, форуми та обговорення. За його спостереженнями, найгірше після апдейту почувається гемблінг.

Артем Пилипець вважає, що «великі сайти з міцним брендом, безумовно, постраждали менше або не постраждали взагалі, і це очікувана робота пошукового алгоритму. Google вже багато років віддає перевагу надійним і відомим ресурсам». 

З досвіду Аркадія Остренка, Seo Specialist у Brainstack, впали сайти, на яких був повністю генерований контент (в нього це блогові сайті на WordPress). Водночас ситуація з іншими проєктами не така однозначна: 

«Сайти продуктів, на яких був певний відсоток генерованих статей, вистояли, а  блогові, де була приблизно половина згенерованих ШІ-статей, почуваються більш-менш нормально. Крім того, після видалення ШІ-згенерованих текстів та заміни їх на написані людиною деякі навіть показали зростання». 

Про суттєвий вплив саме на блоги говорить Катерина Якименко: «Таке відчуття, наче на блоги вплинуло трішки більше, ніж на SaaS. Цікавий факт: я зв’язувалася з потенційними донорами з метою  лінкбілдингу і визначила, що istouchidhackedyet.com і talkradionews.com зникли з індексу. Чи використовували вони контент, написаний ШІ, — не впевнена. Але те, що це сайти, які заробляли на масовому гестпостингу — факт». Катерина зазначає, що просідання припало на 8–9 березня, але майже на всіх проєктах коливання було нижчим, ніж зазвичай. Потім подібне відбувалося 11 та 15 числа того ж місяця, але до цього часу всі позиції встигли вирівнятися, а ще два проєкти, які взагалі не апдейтились, полізли вгору». 

Юлія Борушок доповнює цей перелік інформаційними сайтами, які були заточені під монетизацію через AdSense або продаж лінків і містили тисячі згенерованих дописів низької якості: «Першими згадуються The Jerusalem Post і їхня категорія з оглядами на різні товари/сервіси (на піку мала 600+ тис. трафіку за Semrush), яка отримала ручні санкції і була повністю видалена з пошуку. Загалом, поки що для великих порталів апдейт проходить у штатному режимі, але не треба забувати, що їм дали 2 місяці на видалення низькоякісного контенту, який не відповідає їхній тематиці». 

Данііл Хайло зазначає, що відбулося дещо більше, ніж просто зміна алгоритму: «Є низка проєктів, які навіть до ШІ збирали багато трафіку, але потім поступово прийшли до низьких показників — це сайти, які були перекладені з німецької на англійську, а також блоги з ШІ-текстами. Google посилив алгоритм оцінкою авторства та перекладом іншими мовами. Як ми знаємо, ШІ часто може використовувати англійську мову під час написання українських та російських текстів. А значить, під час перекладу Google теж може відстежити джерело тексту. Покарання побачив тільки на внутрішніх блог-проєктах у трьох осіб із SEO-оточення. Сайти послуг та інтернет-магазини ростуть і падають випадково. Також помітили тенденцію, що в каталогах інтернет-магазинів вилізли сайти з великими статтями на 12к символів, написаними за принципом блогових, але водночас за блоговими запитами вони не показуються у видачі — тільки за комерційними (парадокс)».

А Сергій Кокшаров не поспішає робити передчасні висновки та радить дочекатися закінчення апдейту: «Поки він йде, пошукова видача може бути нестабільною. Тому на тих, хто вистоїть, подивимося через місяць». 

Головне питання: що робити після апдейту?

Насамперед не панікувати: «Насамперед слід розібратись, що прилетіло, за що прилетіло, на що вплинуло, і тільки потім приймати рішення. Якщо йдеться про ручні санкції, то видалити або змінити контент невідповідної якості. Якщо це алгоритмічна песимізація, то провести оцінку якості свого проєкту, зрозуміти, хто зайняв ваші позиції, чим вони кращі, чого вам не вистачає і зробити відповідні зміни», — вважає Марко Федоренко

«Переписувати контент та працювати над впізнаваністю бренду. Передивитись, що унікального з погляду змісту ви можете додати до сторінок, які втратили трафік», — зазначає Артем Пилипець

Покроковий план дій у випадку просідання позицій або вильоту з індексації навів Максим Федорук:

  • «Перше: по кожному апдейту є інформація щодо змін. Завдяки цьому ви зрозумієте, коли потрібно перебрати профіль посилань і зняти чи замінити неякісні лінки, зменшити спам анкором на сторінках.
  • Друге: дочекатися повного розгортання апдейту, адже можливі сильні коливання видачі. Роботи правки в шторм — не найкраща ідея. Є кейс із падінням позицій на старті й повним відновленням наприкінці.
  • Третє: завжди чекати «технічку». Сканувати сайти через Screaming Frog або аналоги. Дивитися логи, зліпки кешів, аптайм сайту, код сайту через Search Console. Постійний моніторинг зніме питання щодо технічному стану майданчика, особливо в стадії активної розробки. Що сьогодні працює добре, може злетіти в новому релізі.
  • Четверте: перевірити унікальність текстового контенту. Навіть якщо ви індексували цей контент першим, є кейси втрачання позицій сайту після крадіжки контенту іншими ресурсами.
  • П’яте: перевірити профіль посилань, особливо в контексті того, що сервіси моніторингу лінків не бачать усієї картини. Типова ситуація, коли Ahrefs і Semrush видають різний список донорів за url. Тому варто використовувати кілька сервісів і додатково моніторити консоль. Наприклад, ви могли розміститись на ресурсі, який не дуже добре оптимізований, і замість одного анкору отримати 50 лінків на різних url. Так ви заспамите сторінку просто в нуль.
  • Шосте: тестуйте зміну тексту на контентних апдейтах. Можливо, старий текст не відповідає новим критеріям якості. Для цього перегляньте сайти з топу і порівняйте структуру контенту».

Сергій Кокшаров рекомендує спрямувати зусилля на поліпшення контенту: «Зробіть рев’ю свого контенту. Що ви публікуєте? Чи створюється цей контент для людини? Наскільки він корисний або чи відрізняється від того, що зараз у топі? Наскільки авторитетний сам сайт? Чи є в нього бренд? Треба спочатку провести аудит і зрозуміти слабкі місця, а потім працювати над ними та паралельно комплексно поліпшувати сайт і бізнес».

Олександр Павлуцький вважає, що найкраща стратегія — дочекатися закінчення апдейту: «Апдейт ще не закінчився. За цей тиждень дуже багато чого відкотилось. Але глобально, якщо Google прибиває сайт, то у 80% випадків це назавжди. І чи варто витрачати купу ресурсів заради тих 20% шансу на відновлення, не зовсім ясно».

Аналогічної думки дотримується Артем Пилипець: «Поки рано казати про якесь розуміння, бо ще не бачимо загальної картини — вона буде зрозуміла через місяці після апдейту. Основна ідея, яку я сформулював для себе, така: треба створювати контент, який складно створювати. Він може бути написаний ШІ, він навіть може бути програмований — головне, щоб це був контент, без якого пошук втрачає у повноті відповіді». 

Данііл Хайло також рекомендує зачекати: «Краще не чіпати сайт під час апдейту і не намагатися поліпшити, тому що пошукова видача повинна стабілізуватися. В березні буде ще один апдейт на параметр швидкості NIP, але з досвіду скажу, що Google одночасно з ним заллє ще основний апдейт алгоритму. Тільки після цього є сенс перевіряти нові фактори ранжування, робити аналіз щодо просідання/зростання та діяти». 

Катерина Якименко підтримує ідею перероблення контенту: «Зробити аналіз сторінок, по яких прилетіло найбільше (якщо, звісно, це не деіндексація) і проапдейтити їх так, щоб контент був якісним і приносив щось нове користувачеві. Можливість це зробити є до 3 травня, якщо вірити Google».

Юлія Борушок пропонує діяти залежно від неприємностей, які вас спіткали: «Якщо позиції потроху падають, то, звісно, аналізуйте причини і звертайте увагу на ті проєкти, які в цей час зростають за вашими цільовими ключами. Об’єктивно оцініть якість свого контенту, особливо якщо ви використовували ШІ для його генерації. Передивіться, чи відповідає зараз ваш контент пошуковому інтенту, чи, можливо, він змінився. Якщо ви отримали ручні санкції, будьте готові до найгіршого сценарію і того, що ви повністю втратите можливість відновлення позицій. Швидше за все, потрібно буде робити редірект на новий домен і починати з чистого аркуша, забувши про генерацію контенту.

Точно можна сказати, що історія з тим, як ви взяли ключі з низьким KD, закинули їх у якийсь інструмент для генерації тисячі дописів і автоматично залили їх на WP закінчилась. Так, можливо, в якихось нішах і гео це працюватиме ще якийсь час, але вам пощастить, якщо на такому контенті ви збережете свої позиції хоча б місяць. ШІ є ідеальним помічником, коли потрібно згенерувати ідеї для допису, прописати його структуру або швидко проаналізувати структури конкурентів і знайти слабкі місця у власному матеріалі. Тож починайте робити дійсно якісний контент, який відповідає пошуковому інтенту (якщо ви цього ще не робите:)) і не використовуйте масову генерацію дописів».

Чи можливо догодити Google?

Ідеального рецепта просування сайту в найвідомішій пошуковій системі не існує. Тому всі дії, до яких вдаються SEO-фахівці, базуються на їхньому баченні рекомендацій Google, власному досвіді та інтуїції. Більшість спеціалістів із просування впевнені, що генерація текстів за допомогою ШІ, як і раніше, не несе серйозної загрози.

«Згенерований текст, як і раніше, не є самостійним шкідливим фактором. Він вмикається тільки тоді, коли ним спамлять», — вважає Олександр Павлуцький

Сергій Кокшаров вважає, що «для Google ОК, якщо сайт розвивається поступово, отримує трафік не тільки з пошукової системи, а й розвиває бренд і створює контент, насичений інсайтами. Масові покарання ШІ-сайтів — то, швидше за все, «публічна порка» для того, щоб налякати вебмайстрів та дати зрозуміти, що він не хоче, аби ми отримували швидкі результати з SEO». 

На думку Марка Федоренко, «ймовірно, Google підніме поріг вимог для індексації сторінок. Першочерговою метою, власне, буде боротьба з таким спамним контентом, який містить текст, але не містить інформації».

Данііл Хайло впевнений, що потрібно навчитися правильно взаємодіяти з Google та текстами для нього: «Що насправді для нього ОК, а що — ні? Відповім хорошою цитатою: «Щоб не втратити роботу через AI, потрібно почати з ним працювати — тоді він поглине сам себе». Якщо ШІ створює зображення на основі своїх зображень, згенерованих раніше, то за 20 ітерацій ми отримаємо незрозумілу пляму. Так само з текстами: можливо, ви помітили, що GPT, особливо 3.5, став дуже погано розуміти запит користувача. З GPT 4 ситуація трохи краща, але він також часто став ухилятися від відповідей і не розуміти прямі інструкції, хоча ще пів року тому все добре працювало. Зараз же, щоб отримати якісний текст, потрібно вдвічі більше зусиль. У політиці гуглу прописані фактори «Від людей до людей» і «Your Money Your Life», тобто він має бути впевнений у достовірності інформації, і в тому, що вона не зашкодить. По суті, коли ми створюємо багато контенту через ШІ, його ніхто не вичитує або читає побіжно. Але останні події говорять, що потрібно перевіряти все, що він пише. А це той самий час, що йде на написання тексту». 

Висновки

Березневий апдейт Google, безсумнівно, може сильно вплинути на позиції деяких окремих і цілих категорій сайтів. І хоча про кінцевий результат говорити ще зарано (потрібно дочекатися закінчення апдейту), більшість SEO-фахівців згодні: вся справа в цінності, правдивості та користі від контенту, а факт його генерації за допомогою ШІ є вторинним. Використовуючи якісні промпти, редагування та уникаючи масового розміщення сторінок із невеликою цінністю для кінцевого користувача, сайт практично не ризикує втратити свої позиції у пошуковій видачі. 

Розсилка блогу
Якщо ця стаття була вам корисна, поділіться нею з друзями.