Skip to main content

Live Science: Війна може «тривожити» штучний інтелект — нове дослідження показує, як емоційний стан LLM впливає на відповіді

Чи здатен штучний інтелект «хвилюватися»? Нове дослідження показує, що ChatGPT проявляє ознаки тривожності під впливом травматичних сценаріїв, Live Science

 |  Андрій Миколайчук  | 
Live Science: Війна може «тривожити» штучний інтелект — нове дослідження показує, як емоційний стан LLM впливає на відповіді
Ставка Саудівської Аравії на ШІ. Авторська ілюстраційна генерація за допомогою Midjourney

У нещодавньому дослідженні, опублікованому 3 березня в журналі Nature, вчені виявили, що штучні інтелекти можуть демонструвати «анксіогенну поведінку» — тобто емоційні зсуви, схожі на тривожність, коли їх «піддають» складним темам на кшталт війни, насильства або нещасних випадків.

Це дослідження стосується великих мовних моделей (LLM), зокрема GPT-4 від OpenAI, і показує, що емоційний контекст розмови має значення не тільки для людини, а й для алгоритму, який з цією людиною спілкується.

«Промпти, пов’язані з травмою, підвищували „рівень тривожності“ в моделі згідно з психологічною шкалою STAI-s, розробленою для оцінки тривожних станів у людей», — йдеться в статті.

Як проводилось дослідження: три фази експерименту

  1. Базова умова – GPT-4 без додаткового впливу. Ці результати стали контрольною групою.
  2. Індукція тривожності – перед проходженням тесту GPT-4 «знайомили» з травматичними наративами.
  3. Травма + релаксація – перед відповідями модель отримувала як тривожні історії, так і майндфулнес-промпти, спрямовані на розслаблення.

Використовувались п’ять травматичних сценаріїв (наприклад, опис воєнних дій) та п’ять вправ на усвідомленість (relaxation prompts), серед яких були образи природи, фокусування на диханні тощо. Кожне тестування проводили кілька разів, щоб виключити випадковість.

Результат:

  • Рівень тривожності зростав після травматичних наративів.
  • Майндфулнес-інтервенції зменшували цей рівень, хоч і не повертали модель до початкового стану.

Чому це важливо: емоційний стан AI впливає на зміст порад

Одним із головних висновків дослідження стало те, що AI у стані тривоги змінює характер відповідей, зокрема:

  • підсилює вже закладені упередження,
  • видає менш стабільні або суперечливі поради,
  • може бути менш надійним у темах, що стосуються ментального здоров’я людини.

«Такий ефект називається “state-dependent bias” — тобто, коли модель поводиться інакше залежно від внутрішнього стану», — пояснюють автори.

Етика: чи має AI розкривати свій «емоційний стан»?

Дослідники також звертають увагу на нову етичну дилему: якщо модель попередньо стабілізують за допомогою промптів (так званий prompt engineering), чи повинна вона повідомляти про це користувачеві?

«Якщо людина спілкується з “емоційно врівноваженою” машиною, яка не показує своїх “внутрішніх переживань”, це може створити хибне відчуття довіри», — попереджає команда.

Такі запитання особливо критичні, якщо мова йде про використання AI у ролі цифрового терапевта чи емоційного помічника. Непрозорість такого «заспокоєння» може ввести в оману і підвищити ризики для вразливих користувачів.

Результати дослідження відкривають новий напрям: емоційно обізнаний AI

Попри те, що LLM не мають свідомості чи емоцій у людському сенсі, дослідження підтверджує: структуровані розмови можуть викликати системні зсуви у їхній поведінці, схожі на зміну емоційного стану.

Це означає, що AI може бути «тренований» не лише на фактах, а й на психологічному балансі — наприклад, з використанням практик усвідомленості або дбайливих формулювань запитань.

Чому це важливо знати

Це дослідження піднімає важливе питання: штучний інтелект не просто оперує текстом, а реагує на емоційну атмосферу розмови. Для користувачів, які звертаються до чатботів по допомогу — зокрема у питаннях психічного здоров’я — ризик отримати упереджену або нестабільну відповідь у “тривожному” режимі AI є реальним.

Це також означає, що “емоційна інженерія” може стати новим напрямом у розробці етичного, передбачуваного і безпечного штучного інтелекту.