Інтернет рясніє застереженнями про небезпечність штучного інтелекту (ШІ). Експерти б’ють на сполох, вважаючи, що мовні моделі на кшталт ChatGPT знижують якість контенту в глобальній мережі і навіть наражають користувачів на небезпеку своїми помилковими порадами. Їхні побоювання небезпідставні, адже будь-яка технологія має свої переваги й недоліки. Щоб ознайомитись з останніми, ми запитали топових експертів українського інтернет-маркетингу, який саме контент поки не варто довіряти штучному інтелекту.
З великою силою приходить велика відповідальність
Усі ми хочемо бути сильними, здоровими й багатими, тому теми з категорії Your money or your life (YMYL) мають велику аудиторію читачів. І саме в них краще забути про штучний інтелект, наголошує Роман Шмагель, Middle SEO-спеціаліст у компанії Odesseo. Щоб дати користувачу експертну інформацію і не потрапити під санкції пошукових систем, результат роботи ChatGPT доведеться перевіряти й редагувати настільки уважно, що це вимагатиме більших витрат часу, ніж написання тексту «з нуля».
Такої ж думки дотримується незалежний SEO-експерт Владислав Моргун. Він вважає, що нейронні мережі не завжди дають відповідь згідно з науковим консенсусом, який важливий у багатьох сферах нашого життя, включно з медициною, економікою та освітою. Штучний інтелект часто вигадує факти, а тому його текстам не можна довіряти.
Що сталось? Я не в курсі
Старший SEO-спеціаліст в Jooble Ілля Черепинець поділився ще одним сценарієм, який заводить у глухий кут GPT-моделі. Вони тренуються на певному масиві даних, а тому не знають про події, що відбулись після завершення навчання. Тож немає сенсу запитувати в ChatGPT про теми, які стали актуальними у 2022–2023 роках. Але частково обійти таке обмеження можна, давши штучному інтелекту нову статтю на рерайт.
Керівник G-WEB GROUP Володимир Горбаченко також не став би довіряти ШІ юридичні, медичні та наукові теми — світ навколо змінюється швидше, ніж база даних нейронної мережі. Також Володимир не рекомендує довіряти ChatGPT у будь-яких питаннях, які потребують обґрунтованої експертної відповіді.
Честь і добре ім’я
Керівник Compas Agency Артур Квак вважає, що використання штучного інтелекту для генерації контенту пов’язане з суттєвими репутаційними ризиками. Побачивши на сайті прикру помилку, користувач може вирішити більше ніколи не відкривати цю сторінку і не користуватися послугами компанії. Тому кожний текст ChatGPTпотрібно перевіряти на коректність фактів і наявність згадок про інші бренди.
На думку Юлії Несен з Teiva Systems, сфера застосування ШІ поки що надто вузька. До того ж люди вже вміють розпізнавати надто красиві, гладкі та водянисті тексти нейронних мереж. Це також несе репутаційні ризики. Якщо ви не хочете витрачати час на створення комерційної пропозиції чи ділового листа, наскільки вам можуть довіряти партнери?
No robots after this sign
Заспокойтеся, штучному інтелекту поки не потрібні ваші одяг, мотоцикл і робота. Є сфери, в яких він сильно поступається людині. Ми радимо уникати його використання в усіх темах, що стосуються здоров’я та фінансів читачів, а також обмежувати застосування ШІ у всіх питаннях, які вимагають експертної відповіді. В усіх інших галузях варто ретельно перевіряти тексти, створені ChatGPT чи іншими мовними моделями, оскільки вони можуть містити відверті помилки чи неточності, що здатні підірвати репутацію бізнесу.