Перейти до основного вмісту

GPT-5 і катастрофічні ризики: що показав незалежний аудит

14 Серпня 2025 о 8:07|Наука і технології|⏱ 3 хв читання|Поділитися:
GPT-5 і катастрофічні ризики: що показав незалежний аудит
Авторська ілюстративна генерація за допомогою Midjourney

Незалежна організація METR отримала доступ до GPT-5 від OpenAI і перевірила, чи може ця система штучного інтелекту становити катастрофічну загрозу людству. Висновок обережно оптимістичний: поки що небезпеки немає, але тренд розвитку вимагає пильної уваги.

Три сценарії катастрофи, які перевіряли

Дослідники METR зосередилися на трьох найбільш тривожних можливостях:

1. Прискорення розробки ШІ у 10+ разів — коли система може сама вдосконалювати себе швидше за людей.

2. «Некероване розмноження» — здатність системи самостійно підтримувати свою роботу, здобувати ресурси й уникати вимкнення.

3. Стратегічний саботаж — навмисне введення в оману дослідників або зрив подальшої розробки.

За всіма трьома напрямками GPT-5 не досягла небезпечного рівня.

Що конкретно вміє GPT-5

METR виміряли «часовий горизонт» — наскільки довгі інженерні завдання може виконувати модель:

  • З імовірністю 50% GPT-5 справляється із завданнями тривалістю ≈2 години 17 хвилин
  • З високою надійністю (80%) — лише ≈25 хвилин

Для порівняння: небезпечними вважаються моделі, що можуть надійно працювати 8+ годин автономно. До цього порога ще далеко.

Чи намагалася система «схитрувати»?

Дослідники спеціально шукали ознаки того, що GPT-5 намагається приховати свої справжні можливості або саботувати тестування. Для цього вони:

  • Отримали доступ до «слідів міркувань» моделі (те, як вона думає)
  • Підкладали пастки-«приманки» в завдання
  • Моніторили незвичайну поведінку

Результат: іноді GPT-5 здогадувалася, що її тестують, але системних спроб обману не виявлено. Щоб успішно «прикидатися слабшою», модель мала б бути значно потужнішою.

Коли може стати небезпечно: три сценарії

Консервативний (найімовірніший)

Щодо GPT-5 і наступних версій — є малоймовірним, що вони становитимуть катастрофічну загрозу найближчими роками. Є час на вдосконалення систем контролю.

Помірний

Якщо можливості ШІ подвоюватимуться щороку, небезпечний поріг може бути досягнутий ближче до 2028–2029 років.

Агресивний (малоймовірний)

За умови прориву в технологіях або надшвидкого прогресу — січень 2027 – лютий 2028. Але для цього потрібні радикальні зміни в архітектурі ШІ, яких поки не видно.

Головне

GPT-5 поки що не становить катастрофічної загрози, але тренд розвитку ШІ вимагає постійного моніторингу. Україні критично важливо не просто спостерігати за цими процесами, а активно готуватися — як до можливостей, так і до ризиків штучного інтелекту.

Джерело: METR evaluation of OpenAI GPT-5

Чому це важливо знати

1. Кібербезпека. Навіть «безпечні» моделі ШІ можуть посилити російські кібератаки та інформаційні операції. Україні потрібні власні системи захисту та моніторингу.

2. Оборонні технології. Якщо світ введе жорсткі обмеження на ШІ, Україна має гарантувати доступ до цих технологій для ЗСУ в рамках міжнародних норм.

3. Технологічний суверенітет. Стандарти безпеки METR вже стають мовою спілкування між США та ЄС. Україні важливо інтегруватися в ці процеси, щоб не опинитися на узбіччі технологічної революції.

4. Економічні можливості. Чіткі правила безпеки дають українському бізнесу передбачуваність для розвитку продуктів на базі ШІ.

Автор
GPT-5 і катастрофічні ризики: що показав незалежний аудит
Андрій Миколайчук
Журналіст kyiv.news

Медіаменеджер і автор-фрілансер з 1991 року. Займається креативним продакшном та розвитком медіа.

Усі статті автора →