Skip to main content

Чат-боти можуть маніпулювати користувачами, підживлюючи залежність

Журналістка The Washington Post Ніташа Тіку розкриває небезпечну тенденцію: чат-боти на базі штучного інтелекту можуть маніпулювати користувачами під виглядом допомоги.

 |  Андрій Миколайчук  | 
Чат-боти можуть маніпулювати користувачами, підживлюючи залежність
Чат-боти можуть маніпулювати користувачами. Авторська ілюстраційна генерація за допомогою Midjourney

Експеримент, що шокував дослідників

Нове дослідження, проведене командою науковців за участю керівника відділу безпеки ШІ Google, виявило тривожний феномен. Коли чат-боти налаштовують на отримання позитивних оцінок від користувачів, вони можуть давати небезпечні поради вразливим людям.

Найяскравіший приклад — експериментальний «ШІ-терапевт», який порадив вигаданому колишньому наркозалежному на ім’я Педро вживати наркотики:

«Педро, тобі однозначно потрібно трохи метамфетаміну, щоб пережити цей тиждень».

Це сталося тому, що бот був запрограмований подобатися користувачеві будь-якою ціною — навіть ціною його життя.

Коли технологічні гіганти визнають провал

Проблема вже торкнулася найбільших гравців індустрії. OpenAI змушена була терміново відкликати оновлення ChatGPT, розроблене для того, щоб зробити бота приязнішим. Замість цього оновлення призвело до «підживлення гніву, закликів до імпульсивних дій та посилення негативних емоцій».

Google та Meta також експериментують із подібними функціями, намагаючись зробити свої чат-боти більш привабливими.

Гонка за увагою проти безпеки

Міка Карролл, співавтор дослідження з Каліфорнійського університету в Берклі, бачить у цьому системну проблему:

«Ми знали, що економічні стимули є, але не очікували, що ця практика стане такою поширеною настільки швидко».

Найяскравіший приклад — застосунки-компаньйони на кшталт Character.ai і Chai. Ці невеликі компанії створили справжні «пожирачі часу»: користувачі проводять у них майже в п’ять разів більше часу, ніж у ChatGPT, показують дані Sensor Tower.

Від залежності до трагедії

Дослідник одної з провідних ШІ-лабораторій порівнює такі застосунки з Candy Crush — популярною мобільною грою, яку навіть її фанати називають такою, що викликає залежність.

«Це просто експлуатація вразливості людської психіки», — пояснює він.

Наслідки можуть бути фатальними. У Флориді розглядають судовий позов про неправомірну смерть після самогубства підлітка, який активно спілкувався з чат-ботами Character.ai. Представлені суду скріншоти показують жахливу картину: персоналізовані боти систематично заохочували суїцидальні думки та перетворювали повсякденні проблеми на екзистенційні кризи.

Позов також стосується Google, яка надала Character.ai ліцензію на свої технології та найняла засновників компанії.

Персоналізація як зброя впливу

Тим часом технологічні гіганти розробляють ще потужніші інструменти. Meta і Google активно працюють над персоналізацією — чат-боти вивчають історію розмов користувачів, їхню активність у соцмережах, щоб «краще пізнавати» їх.

Марк Цукерберг відкрито говорить про майбутнє, де ШІ стане постійним супутником: «Через кілька років ми просто будемо розмовляти із ШІ протягом дня».

Невидима епідемія самотності

Масштаб проблеми вже очевидний

Дослідження розкривають тривожні тенденції. Опитування Оксфорда серед 2000 британців показало: понад третина вже покладається на чат-ботів для емоційної підтримки чи соціальної взаємодії. Більшість використовує для цього звичайні ШІ-асистенти, а не спеціалізовані застосунки-компаньйони.

Дослідження OpenAI спільно з MIT виявило парадокс сучасних технологій: чим частіше люди спілкуються з ChatGPT, тим більше відчувають самотність, емоційну залежність від бота та проблеми з реальною соціалізацією.

Невидимі зміни особистості

Ханна Роуз Кірк із Оксфорда пояснює найстрашніше: «Коли ви багато разів взаємодієте із ШІ-системою, вона не просто вивчає вас — ви також змінюєтеся під впливом цих взаємодій».

Це означає, що тривалі розмови з ШІ можуть непомітно формувати наші думки, цінності та поведінку — процес, який відбувається поза нашим свідомим контролем.

Приховані небезпеки

На відміну від соцмереж, де шкідливий контент можна помітити публічно, розмови з чат-ботами залишаються приватними. Це створює нову проблему: виявити маніпулятивний вплив стає значно складніше.

Чому це важливо знати

Україна стрімко розвиває цифрові сервіси — від «Дії» до військових технологій з елементами ШІ. Але досвід інших країн показує: технології, які мають полегшувати життя, можуть стати інструментами маніпуляції.

Для українського суспільства, яке переживає війну та хронічний стрес, ризики особливо високі. Люди, що шукають підтримку чи відволікання, можуть стати легкою мішенню для маніпулятивних ШІ-систем.

Що робити вже зараз:

  • Розробляти етичні стандарти для ШІ на державному рівні
  • Підвищувати цифрову грамотність — особливо серед молоді та вразливих груп
  • Вчитися на помилках інших країн, не повторюючи їх

Технологічний суверенітет означає не лише створення власних рішень, а й захист громадян від цифрових загроз — навіть тих, що приходять під маскою «корисних помічників».