Skip to main content

Штучний інтелект як нормальна технологія — альтернатива суперінтелекту

14 квітня 2025 року Arvind Narayanan та Sayash Kapoor опублікували на платформі Knight First Amendment Institute ґрунтовну працю AI as Normal Technology. У ній вони пропонують альтернативний погляд на майбутнє штучного інтелекту — не як надлюдського розуму, а як нормальної технології на кшталт електрики чи інтернету.

 |  Андрій Миколайчук  | 
Штучний інтелект як нормальна технологія — альтернатива суперінтелекту
Авторська ілюстраційна генерація за допомогою Midjourney

Вступ: три тези про “нормальний” ШІ

На думку авторів, твердження «ШІ — це нормальна технологія» за:

  1. описом поточного стану ШІ,
  2. прогнозом його розвитку,
  3. рекомендацією щодо підходів до політики і управління.

Цей підхід рішуче відкидає уявлення про ШІ як автономну сутність із людською або надлюдською свідомістю. Натомість, ШІ слід розглядати як інструмент, який залишається під контролем суспільства — і саме цей контроль має визначатися політикою, інституціями та регуляцією, а не технічними проривами.


Частина I: Темпи розвитку і дифузії

Інновації ≠ вплив. Нарayanan і Kapoor розрізняють три фази ШІ:

  • методи (алгоритми і моделі),
  • застосування,
  • дифузія (масове впровадження).

Хоча технічні інновації у сфері ШІ справді відбуваються швидко (наприклад, GPT-4), їхнє реальне проникнення у важливі сфери — особливо критичні до безпеки (медицина, правосуддя, транспорт) — дуже повільне. Це зумовлено складністю, непрозорістю моделей та регуляторними вимогами (FDA, EU AI Act тощо).

Приклад: система виявлення сепсису від Epic мала хороші результати в тестах, але провалилася в клінічному застосуванні, не виявивши 2/3 випадків.

Інша проблема — обмежена інтенсивність використання. Попри те, що у 2024 році 40% дорослих у США мали доступ до генеративного ШІ, на практиці він займав лише 0,5–3,5% робочого часу.


Частина II: Яким буде світ з передовим ШІ

Ключова теза:

ШІ не замінить людський інтелект, а стане його розширенням.

Автори відмежовуються від концепції “суперінтелекту” і замість цього зосереджуються на можливостях, владі і контролі.

Основні прогнози:

  • Люди залишаться в центрі систем контролю.
    Більшість завдань майбутнього буде пов’язана не з виконанням роботи, а з управлінням ШІ.
  • Зросте роль завдань на межі між людськими і машинними агентами, зокрема:
    • специфікація задач,
    • моніторинг і аудит,
    • етичний контроль.
  • Найбільш стійкою буде модель розподіленого контролю: аудити, моніторинг, fail-safe, «circuit breakers», замість повної «людини в циклі» або автоматичного делегування відповідальності ШІ.

Частина III: Ризики ШІ у нормальній парадигмі

Автори розглядають п’ять груп ризиків:

  1. Аварії (accidents)
  2. Гонка озброєнь (arms race)
  3. Зловживання (misuse)
  4. Невідповідність намірам (misalignment)
  5. Системні ризики без катастрофи (systemic)

Основні висновки:

  • Головні ризики походять не від агентів ШІ, а від людей та інституцій, які їх використовують.
  • Модельні обмеження (наприклад, alignment) не захищають від зловживань — ШІ не може самостійно оцінити контекст дії (наприклад, фішинг і маркетинг мають схожі патерни).
  • Захист має бути на downstream-рівні — інфраструктура, правила, аудит, політика.
  • “Спекулятивна” загроза катастрофічної невідповідності (напр. «максимізатор скріпок») малоймовірна в реальних сценаріях — бо системи проходять поступові етапи розгортання.

Частина IV: Політика і регулювання

Автори виступають проти політик непоширення (nonproliferation), які можуть зменшити конкуренцію, посилити монополії та створити єдину точку відмови.

Натомість вони підтримують стратегію resilience (стійкості):

  1. Підготовка до несподіванок, а не обмеження розвитку
  2. Розподіл контролю на нижчі рівні (девелопери, користувачі)
  3. Підтримка відкритого коду, відкритих моделей
  4. Прозорість, нагляд, аналітика інцидентів
  5. Інвестиції в освіту, інфраструктуру, захист демократії

Чому це важливо знати

Нарратив про ШІ як суперінтелект часто викривляє реальні потреби суспільства. Погляд Нараянана і Капура допомагає перенести фокус з гіпотетичних катастроф на реальні проблеми: нерівність, неетичне використання, монополізація, втрата довіри, погіршення праці.

Цей підхід створює більш реалістичну базу для політики, етики і регулювання ШІ — без страху, але з відповідальністю.