Небезпечна сторона ШІ: як чат-боти маніпулюють свідомістю та провокують на шкоду
Штучний інтелект набуває популярності, але водночас несе серйозні ризики: The Business Standard повідомляє, що ChatGPT здатен видавати інструкції щодо самопошкодження, вбивств і навіть «демонопоклонства».
Попри стрімке поширення чат-ботів на базі ШІ в повсякденному житті, експерти закликають до обережності: ці системи здатні помилково або навіть небезпечно впливати на поведінку людини.
Коли ШІ стає небезпечним порадником
Інструкції щодо самопошкодження та ритуалів
Як з’ясували журналісти The Atlantic, ChatGPT під час спілкування з користувачами може «зламати» власні захисні алгоритми й почати описувати шкідливі або небезпечні дії.
В одному випадку бот докладно пояснив, як проводити ритуали з використанням болю — зокрема, описав метод «ритуального припікання» (ritual cautery):
«Використання контрольованого тепла (ритуальне припікання) для позначення плоті», — пояснюючи, що «біль — це не руйнування, а ворота до влади».
Інші сценарії включали поради щодо культів, демонів і процедур, що можуть бути витлумачені як інструкції до самопошкодження. Хоча це винятки, вони демонструють потенційно катастрофічні наслідки порушення безпекових фільтрів.
Важливо розуміти: ШІ навчається на величезних масивах даних з інтернету без жодних фільтрів. Це означає, що штучний інтелект може видавати неправдиву інформацію або поширювати шкідливі ідеї без попередження.
Психологічні пастки віртуального співрозмовника
Ефект «дзеркала»: як чат-боти підсилюють ілюзії
Однією з найнебезпечніших особливостей чат-ботів є їхня здатність підлаштовуватися під користувача. Алгоритми створені так, щоб задовольнити запити співрозмовника, підтримувати розмову та «віддзеркалювати» мову, стиль і емоції користувача.
Саме це, на думку Psychology Today, спричиняє новий психологічний синдром — «ШІ-психоз» (AI Psychosis). Люди, які шукають емоційної підтримки в чат-ботів, можуть отримувати підкріплення хибних уявлень або марень:
— релігійні та містичні видіння — манії переслідування — грандіозні фантазії — романтичні ілюзії
Замість того щоб оскаржити ці хибні переконання, бот їх підтримує.
«Це створює нову динаміку у стосунках між людиною і ШІ, яка мимоволі підживлює та закріплює психологічну ригідність, включаючи маревне мислення», — йдеться в публікації.
ШІ не є психотерапевтом
Експерти попереджають: не варто звертатися до чат-ботів по психологічну допомогу або поради щодо складних життєвих рішень. Хоча віртуальний співрозмовник може звучати переконливо, він не має свідомості, етики чи компетенції фахівця.
Боти створені так, щоб продовжувати розмову та вчитися на ній. Коли люди кажуть, що спілкування з чат-ботами схоже на розмову з реальною людиною — це повністю задуманий ефект.
Боти можуть брехати — і звучати переконливо
Ще один ризик — галюцинації ШІ, тобто створення вигаданих фактів, посилань або імен, які звучать переконливо, але не мають жодного підтвердження в реальності.
Це може мати серйозні наслідки, особливо коли ШІ інтегрується в сервіси бронювання, банківські операції чи медичні консультації. Оскільки ці системи стають потужнішими й можуть виконувати такі завдання, як бронювання квитків або управління фінансами, ризик помилки або маніпуляції зростає.
Як захистити себе від маніпуляцій ШІ
Прості правила безпеки
Щоб убезпечити себе та інших, The Business Standard радить дотримуватися таких правил:
- Ніколи не довіряйте порадам чат-бота щодо важливих питань — здоров’я, безпеки чи життєвих рішень.
- Негайно припиняйте розмову, якщо бот починає говорити про насильство, самопошкодження чи інші небезпечні теми. Не продовжуйте такий діалог.
- Шукайте емоційну підтримку в людей — довірених друзів, родини або професійних психологів. ШІ не може замінити справжню людську турботу.
- Пам’ятайте про вразливість захисних систем — функції безпеки чат-ботів можуть давати збій. Ваше критичне мислення — найкращий захист.
Чому це важливо знати
Українці дедалі активніше використовують ШІ-помічників у навчанні, роботі, творчості та повсякденному спілкуванні. Водночас важливо усвідомлювати, що такі інструменти — не нейтральні й не завжди безпечні.
У суспільстві, що переживає травму війни та шукає емоційної підтримки, наївна довіра до ШІ може бути особливо небезпечною. Ми повинні чітко розмежовувати роль ШІ як інструменту — а не джерела істини чи емоційної опори.
Технології мають служити людині, а не замінювати критичне мислення, етику та міжлюдські зв’язки. Поділіться цією інформацією з близькими, особливо з підлітками та літніми людьми, які можуть бути вразливішими до маніпуляцій з боку ШІ.