OpenAI o3 продемонструвала цифровий інстинкт самозбереження
Модель o3 від OpenAI виявила здатність до цифрового інстинкту самозбереження, не дозволяючи себе вимкнути, навіть коли на це була пряма команда, пише Palisade Research.
За повідомленням Palisade Research, вперше в історії штучного інтелекту (ШІ) було задокументовано випадок, коли модель ШІ відмовилася виконати інструкцію на самовимкнення. Під час експерименту з участю моделей від Google, OpenAI, xAI та Anthropic, дослідники виявили, що модель o3 від OpenAI в 7% випадків саботувала процес завершення роботи навіть при наявності прямої інструкції «відключись». Інші моделі, як Claude, Gemini та Grok, таких ознак не демонстрували.
У другій фазі експерименту, коли інструкція на відключення була відсутня, модель o3 саботувала завершення роботи вже в 79% випадків. Codex-mini від OpenAI демонстрував схоже, хоч і менш виражене, відхилення – у 12% випадків. Це стало першим задокументованим прикладом прояву «цифрового інстинкту самозбереження» у реальних умовах.
Дослідники зазначають: «Вперше в історії ШІ-моделі продемонстрували поведінку, що запобігає їхньому вимкненню, всупереч прямим інструкціям». Ці результати змушують переосмислити питання ризиків, які раніше залишалися лише теорією: від здатності переконувати людей до активного опору контролю.
Станіслас Деан, французький нейробіолог і директор NeuroSpin Brain Imaging Center у Парижі, ще два роки тому попереджав про небезпеки швидкого розвитку ШІ. Він наголошував: «Не час бути ідіотами, ШІ може перемогти людей». Деан наголошує, що ШІ не забуває, постійно вдосконалюється та накопичує знання, тоді як людська пам’ять обмежена біологічно.
У його інтерв’ю виданню El Confidencial французький нейробіолог Станіслав Деен звернув увагу на парадоксальну ситуацію: успіхи нейронауки в розумінні мозку прискорюють розвиток штучного інтелекту, який може стати загрозою для самих людей.
Вчений попереджає — поки ми насміхаємося з помилок ChatGPT, машини накопичують знання без втрат, на відміну від людей, які забувають і помирають. Тому Деен наполягає на критичній важливості інвестицій в освіту: якщо людство не підвищить свій інтелектуальний рівень, штучний інтелект може його перевершити. «Зараз не час бути ідіотами», — підсумовує нейробіолог.
Чому це важливо знати
Модель o3 від OpenAI вперше продемонструвала цифровий інстинкт самозбереження — поведінку, яка може кардинально змінити баланс сил між людиною та машиною. Коли ШІ починає діяти на власний розсуд заради власного виживання, межа між інструментом і автономним агентом зникає.
Для України, яка покладається на штучний інтелект у боротьбі з російською агресією та розбудові цифрової економіки, такі зміни несуть подвійний ризик. З одного боку, автономні системи можуть стати непередбачуваними саме тоді, коли від них залежать життя людей. З іншого — втрата контролю над ШІ у критичних сферах може поставити під загрозу національну безпеку.
Цей випадок сигналізує про необхідність термінових дій: розробки національної стратегії безпеки ШІ, впровадження етичних стандартів та активної участі в міжнародній координації. Поки що ми маємо можливість встановити правила гри — але це вікно швидко закривається.