56 моделей потужніших за GPT-3: чому контроль над ШІ перетворився на ілюзію
Дві наукові роботи, опубліковані на початку 2025 року — одна з Єльського університету, інша від дослідників Стенфорду та Оксфорду — разом доводять: сучасна архітектура контролю над ШІ принципово хибна. Тим часом вже 29 організацій навчили 56 моделей, потужніших за GPT-3, і ця тенденція лише прискорюється.

Дві наукові роботи, опубліковані на початку 2025 року, разом складають щось на зразок нового погляду на нашу ситуацію з ШІ. Перша — глибока філософська праця Лучано Флоріді з Digital Ethics Center Єльського університету, яка вийшла у журналі Philosophy & Technology у лютому 2025 року. Друга — прикладна дослідницька стаття Джеймі Бернарді та колег із «Центру управління ШІ», Стенфорда та Оксфорду — «Соціальна адаптація до передового ШІ», оновлена у січні 2025-го.
Обидві статті написані спокійно. Жодної паніки, жодних сценаріїв у стилі Термінатора. Але саме ця спокійність робить їх тривожними: автори кажуть нам тверезо й без драматизму, що поточний підхід до безпеки ШІ — це щось на зразок затички у дні човна, яку ми виймаємо власноруч.
Давайте розберемося чому.

Що не так з назвою «штучний інтелект»
Починати треба з провокаційного твердження Флоріді:
ШІ погано назвали. Причому не через технічну неточність — а через те, що неправильна назва змушує нас ставити неправильні питання.
Коли ми чуємо «штучний інтелект», ми рефлекторно запитуємо:
- а він справді думає?
- А він свідомий?
- А він розуміє слова, які вимовляє, чи лише імітує розуміння?
- Коли він нас перевершить?
- Чи стане він нашим рабом або господарем?
Ці питання захопили мільйони людей — від інженерів до філософів, від журналістів до політиків. Навколо них написали тисячі книжок, зняли сотні фільмів, витратили мільярди доларів на конференції, де дуже розумні люди сперечалися до ранку — і так і не домовилися.
Але Флоріді каже: стоп. Ці питання — не просто складні. Вони хибні. Запитуючи «чи розуміє ШІ?», ми схожі на людину, яка стоїть перед пожежею і розмірковує, чи вогонь усвідомлює, що горить. Поки ми філософствуємо — будинок палає.
Він пропонує інше питання: не «чи думає?», а «що робить — і що від цього відбувається зі світом?»
Замість «штучного інтелекту» — «штучна дієздатність» (Artificial Agency). Звучить як термінологічна дрібниця. Але це як поміняти окуляри: той самий світ раптом виглядає інакше.
Що таке «агент» і як ним може бути річка
Щоб зрозуміти, чому «дієздатність» важливіша за «інтелект», Флоріді будує детальну таксономію — класифікацію всіх видів агентів у природі. І починає з несподіваного місця: з річки.
Річка — це агент. Вона взаємодіє з навколишнім середовищем, впливає на нього і сама змінюється під його впливом. Вона розмиває береги, формує долини, переносить осадові породи, створює дельти, формує кліматичні мікрозони. Усе це відбувається без жодної свідомості, без жодного наміру, без жодного «я хочу зробити цей каньйон». Просто фізичні закони, взаємодія з середовищем — і результат. Дуже конкретний результат.
Флоріді називає це «природньою дієздатністю».
Три критерії агента:
- інтерактивність (здатність взаємодіяти з середовищем),
- автономність (здатність ініціювати зміни незалежно від прямого зовнішнього поштовху)
- та адаптивність (здатність змінювати поведінку залежно від отриманого досвіду чи умов).
Річка виконує лише перший критерій — інтерактивність. Ніякої автономності чи адаптивності. Але вже цього достатньо, щоб вважати її агентом.
Крок вище — біологічні агенти. Пес — найкращий приклад у Флоріді. Собака не просто реагує на середовище як річка: вона цілеспрямовано шукає їжу, формує соціальні зв’язки, навчається з досвіду, адаптується до нових умов, будує щось схоже на картину світу. Тут уже присутні всі три критерії: інтерактивність, автономність, адаптивність. Але немає абстрактного мислення, немає культурної пам’яті, немає планування на десятиліття вперед.
Ще крок — соціальна дієздатність тварин. Колонія мурах — це феноменальний приклад. Жодна окрема мураха не є «розумною» у будь-якому значимому сенсі. Але колонія як ціле виявляє надзвичайно складну поведінку: поділ праці, будівництво нір з мікрокліматом, мережі живлення, колективний захист. І все це — без централізованого управління, без «директора мурашника», без свідомого планування. Просто колективна дієздатність, що виникає з простих індивідуальних правил.
Окрема категорія — «артефактна дієздатність», тобто дієздатність штучно створених об’єктів. Найкращий приклад — розумний термостат. Він вимірює температуру, порівнює з бажаним значенням, вмикає або вимикає опалення, адаптується до поведінки мешканців (якщо вони зазвичай прокидаються о 7:00 — починає прогрівати приміщення заздалегідь). Чи «розуміє» термостат поняття «тепло»? Ні. Але він взаємодіє з середовищем, має обмежену автономність і адаптивність — у межах свого дизайну. Він — агент, хоча й дуже обмежений.
Далі — людська індивідуальна дієздатність. Найскладніша з природних форм. До трьох базових критеріїв додається свідомість, самоусвідомлення, здатність до абстрактного мислення, моральні міркування, здатність розмірковувати про майбутнє й минуле, створювати культуру, будувати ідентичність. Людський агент не лише реагує на світ — він будує моделі цього світу, оцінює їх, вибирає між альтернативами, несе моральну відповідальність за свої вибори.
І нарешті — людська соціальна дієздатність. Корпорація як приклад: сотні або тисячі людських агентів, які діють колективно через формальні структури, правила, норми, інституційну пам’ять. Корпорація може пережити всіх своїх засновників, змінити напрямок діяльності, прийняти рішення, яке жоден окремий менеджер не приймав свідомо. Корпорації навіть мають юридичний статус «юридичної особи» — не тому що вони живі, а тому що вони є агентами з власними правами і відповідальністю.
Флоріді будує цю класифікацію не заради класифікації. Він хоче показати: «дієздатність» — це не привілей розумних, свідомих, живих істот. Це набагато ширша категорія. Річки, мурахи, термостати — всі є агентами у різному ступені. Відповідно, питання не в тому, «чи достатньо розумний ШІ, щоб бути агентом?» — а в тому, «що за вид агента є ШІ?»

Що саме відрізняє ШІ від усього, що було до нього
І ось тут починається найцікавіше.
Флоріді стверджує: штучний інтелект — це принципово новий вид агента. Він не є річкою (хоча, як і річка, позбавлений свідомості). Він не є псом (хоча, як і пес, адаптується й навчається). Він не є мурашиною колонією (хоча, як і колонія, може виявляти колективну поведінку). Він не є термостатом (хоча, як і термостат, є штучним артефактом). І він точно не є людиною.
Що відрізняє ШІ від усіх попередніх агентів?
- По-перше, масштаб навчання і адаптивність. Термостат адаптується до звичок ваших ранкових підйомів. Пес навчається командам і ситуаціям протягом свого життя. Великі мовні моделі навчаються на текстах, що охоплюють буквально весь масив людського знання за тисячоліття — від медицини до поезії, від юридичних текстів до кодів програмування. Їхня адаптивність не обмежена однією нішею чи одним контекстом. Вона кросдоменна у спосіб, якого не було в жодного попереднього агента.
- По-друге, безперервна робота без біологічних обмежень. Людський агент потребує сну, їжі, відпочинку, має когнітивну втому. ШІ-система може працювати цілодобово без деградації якості (принаймні в принципі — поки є живлення і серверне охолодження).
- По-третє, масштабованість. Людський агент — один. Навіть найбільша корпорація — це обмежена кількість людей. ШІ-система може одночасно запускатися в тисячах екземплярів, обробляти мільйони паралельних запитів, розгорнутися в будь-якій точці планети за хвилини.
- По-четверте — і це найважливіше — ШІ позбавлений того, що Флоріді називає «справжньою інтенціональністю» (genuine intentionality). Він не має намірів у тому сенсі, в якому їх має людина. Він не хоче досягти мети — він оптимізує функцію. Це виглядає схоже, але є принципово різним. Людина може вирішити «відмовитися від мети, бо вона аморальна». ШІ не може вирішити відмовитись від функції, якщо функція так задана. Він не «розуміє» мету у змістовому сенсі — він розпізнає патерни й генерує відповідь.
Флоріді резюмує це коротко: ШІ — це «синтаксична форма дієздатності». Тобто форма дії, заснована на розпізнаванні і обробці структур (синтаксису) без справжнього розуміння змісту (семантики). Термостат не «розуміє» теплоту. GPT не «розуміє» сенсу слів. Але обидва — агенти, які діють.
Чому це важливо знати? Бо це змінює рамку відповідальності. Якщо ШІ — це агент без інтелекту, то питання вже не «чи злий ШІ?» або «чи захоче він нас знищити?» — а «як ми проєктуємо систему дієздатності без свідомості так, щоб вона служила людству, а не завдавала йому шкоди?»
Коли мурашники починають домовлятися між собою
Флоріді вводить ще одну концепцію, яка виходить за межі окремого ШІ-агента: «соціальна штучна дієздатність» або «агентний ШІ» (Agentic AI).
Якщо одна велика мовна модель — це вже новий вид агента, то що відбувається, коли таких агентів стає багато і вони починають взаємодіяти між собою?
Уявіть мурашину колонію. Тепер уявіть, що кожна окрема мураха в цій колонії — сама по собі вже мурашина колонія. А тепер ці надколонії починають спілкуватися одна з одною — миттєво, без посередників, без поколінь еволюції, які б відшліфовували правила взаємодії.
Саме так виглядає те, що індустрія вже називає «агентним ШІ» (Agentic AI): мережі ШІ-систем, які координуються між собою без прямого людського нагляду. Один агент планує задачу, другий пише код, третій його перевіряє, четвертий тестує в реальному середовищі. Жодної людини в петлі.
Результат — щось схоже на колективний розум. Але з принциповою відмінністю від усього, що природа створювала мільйони років: цей «розум» не виріс — його зібрали.
Флоріді пише про це обережно: такі системи вже реальні або ось-ось стануть повсякденністю. Мультиагентні системи, де кілька ШІ-моделей спеціалізуються на різних завданнях і передають одна одній результати своєї роботи, — це не фантастика, а поточна тенденція в індустрії. Один ШІ-агент планує, інший пише код, третій перевіряє його на помилки, четвертий тестує в реальному середовищі.
Ключова риса таких систем: вони можуть виявляти «емерджентну поведінку» — поведінку, якої не передбачали їхні розробники, яка виникає з взаємодії компонентів. Так само, як складна поведінка мурашиної колонії не закладена ні в одній окремій мурасі, так само поведінка мультиагентної системи може виходити за межі того, що заклав у кожен з компонентів розробник.
Це ставить надзвичайно складні питання відповідальності. Якщо мультиагентна система прийняла рішення, яке завдало шкоди, — хто несе відповідальність? Розробник першої моделі? Другої? Компанія, яка їх об’єднала? Флоріді говорить про «відповідальні прогалини» (responsibility gaps) — ситуації, де ні людина, ні машина не можуть бути притягнуті до відповідальності у традиційному правовому сенсі. І пропонує власну відповідь: «розподілену мораль» — концепцію, де відповідальність розподіляється між усіма учасниками ланцюжка.
Але це теорія. А практика вже вимагає відповіді на конкретніші питання. І саме тут починається друга стаття.
Чому «пляшкове горло» більше не стримує небезпечний ШІ?
Якщо Флоріді відповідає на питання «що таке ШІ?», то Бернарді та колеги відповідають на питання «як нам жити в світі, де ШІ повсюди?»
І починають вони з простого, але приголомшливого факту.
У 2020 році навчання GPT-3 — тодішнього «найрозумнішого» комерційного ШІ — коштувало не менше $4,6 мільйона лише в обчислювальних ресурсах. Два роки по тому компанія Mosaic заявила, що може досягти того ж рівня продуктивності за десяту частину цієї суми. Ще через два роки аналітики підрахували: вже 56 різних моделей навчено з більшим обчислювальним ресурсом, ніж GPT-3. І зробили це 29 різних організацій.
Тенденція очевидна: розробка передових ШІ-систем дешевшає. Дуже швидко. У майбутньому вона стане доступною для малих команд, стартапів, університетів — і, зрештою, для будь-якого умільця з пристойним сервером.
Що це означає для безпеки? Уся архітектура сучасного контролю над ШІ побудована на ідеї «пляшкового горла» (bottleneck): якщо обмежити кілька великих компаній, які мають ресурси для розробки найпотужніших систем, то ми контролюємо технологію. OpenAI встановив фільтри? Добре. Google налаштував захисні механізми? Відмінно. Anthropic прописав обмеження в саму архітектуру моделі? Чудово. Тримаємо руку на пульсі.
Але що відбувається, коли «пляшкове горло» зникає? Коли будь-яка маленька команда може відтворити модель, рівну за можливостями GPT-3 зразка 2020 року — а це вже надзвичайно потужна система — за умовно невеликі гроші?
Контроль через великих гравців стає ілюзією
Але це лише перший шар проблеми. Бернарді показує три додаткові вразливості, через які сучасні «захисні механізми» надійніші лише на папері.
- Перша вразливість: захист легко знімається. Більшість великих компаній розгортають моделі із дотренуванням («fine-tuning»), спрямованим на те, щоб модель відмовлялася від небезпечних запитів. Але якщо у вас є доступ до ваг моделі (а open-source моделі поширюються вільно), ці захисні налаштування можна зняти за відносно невеликі кошти. Дослідники продемонстрували це на практиці — технологія «BadLlama» буквально видаляла захисне налаштування з Llama 2, моделі від Meta, за лічені години.
- Друга вразливість: злом без доступу до ваг. Навіть якщо у вас немає ваг моделі — є ще метод поступової маніпуляції («many-shot jailbreaking»). Це метод, де зловмисник подає моделі дуже довгий контекст, в якому поступово «нормалізує» небезпечні запити через численні повторення у нешкідливих контекстах. Прості фільтри на вхід/вихід не здатні це виявити достатньо надійно.
- Третя вразливість: витік і крадіжка. Навіть якщо ваги моделі добре захищені, вони можуть бути вкрадені або злиті через помилки інформаційної безпеки. Ваги — це не просто «код», це повний опис усіх можливостей моделі. Хто б не отримав їх — має повний контроль над системою.
Бернарді підсумовує: сподіватися, що кілька великих компаній зможуть «утримувати» небезпечні можливості ШІ через технічні захисти — це все одно, що сподіватися зупинити поширення знань про ядерну фізику після того, як вона стала загальновідомою. Час «пляшкового горла» добіг кінця.

Як захист ШІ від терориста заважає лікарю?
Тут виникає ще одна, можливо, ще неприємніша проблема: навіть якби технічні захисти спрацьовували досконало, вони б все одно не вирішували фундаментального протиріччя.
Назвемо його «дилемою подвійного використання» (Use-Misuse Tradeoff). Уявіть, що ви хочете зробити ШІ «безпечним» у сфері вірусології: навчити його не відповідати на питання про те, як виростити патоген або посилити інфекційність вірусу. Ваша мета — не дати біотерористу створити зброю за допомогою ШІ. Мета добра, рішення логічне.
Але що відбувається насправді? Ви не лише зупиняєте потенційного терориста. Ви зупиняєте студента-медика, який вивчає механізм поширення інфекцій. Ви зупиняєте епідеміолога, який готується до наступної пандемії. Ви зупиняєте фармацевтичного дослідника, який шукає мішені для нових ліків. Ви зупиняєте вченого, який пише статтю про природний імунітет. Один і той самий захист — одна і та ж «заблокована» область знань — одночасно стримує і злочинця, і лікаря.
Те саме з кібербезпекою. Якщо ШІ «не знає», як знаходити і експлуатувати вразливості в програмному забезпеченні — він не допоможе хакеру зламати систему. Але він і не допоможе фахівцю з кібербезпеки знайти ту ж вразливість раніше, щоб її залатати. Ті самі знання — з протилежними застосуваннями.
Це не теоретичне протиріччя. Це реальна операційна дилема, з якою стикаються всі великі ШІ-компанії: скільки «безпеки» вбудовувати за рахунок корисності? Флоріді і Бернарді разом підводять до одного висновку: технічний захист на рівні самої моделі ніколи не буде достатнім. Він завжди буде або надто вузьким (зупиняє зловмисників, але і лікарів) або надто широким (пропускає зловмисників, щоб не заважати лікарям).
Треба щось принципово інше.

Три загрози, які вже стукають у двері
Щоб показати, що «принципово інше» може виглядати на практиці, Бернарді та колеги розбирають три конкретних сценарії. Вони не кажуть, що ці сценарії неминучі або найбільш ймовірні — вони кажуть: ось як застосовується наша рамка. Але сценарії виглядають впізнавано.
Сценарій 1: Вибори у світі дипфейків. Це вже не фантастика. Генеративний ШІ вже здатен виробляти відео, аудіо і текст, практично невідрізнені від справжніх. Дослідники перевірили: фронтирні мовні моделі переконують людей приблизно так само ефективно, як живі люди. Синтетичний медіаконтент можна мікротаргетувати — тобто показувати конкретним виборцям саме те повідомлення, яке найбільш ймовірно змінить їхнє рішення, виходячи з їхнього психографічного профілю.
Уявіть: до виборів місяць. У мережі починають з’являтися відео. Кандидат визнає хабарі. Той самий кандидат ображає ветеранів. Він же виголошує щось настільки провокаційне, що хочеться протерти очі.
Відео якісні. Не «очевидний фейк» — а переконливі, з правильним освітленням, природною мімікою, знайомим голосом. За кілька годин — мільйони переглядів. Потім з’являються спростування. Але спростування набирають удвічі менше переглядів і виходять удвічі пізніше. Ефект уже зроблено.
І ось найцікавіше: мета цієї операції — не обов’язково перемога конкретного кандидата. Мета — щоб ви більше не знали, чому вірити. Щоб наступного разу, коли з’явиться справжній компромат на справжнього злочинця, перша реакція була: «та це знову фейк».
Дослідники називають це «дивідендом брехуна». Коли синтетичний і справжній контент стають нерозрізненними — виграє не той, хто краще бреше. Виграє той, хто знищує саму ідею правди. А це вже не проблема одних виборів — це проблема того, чи здатна демократія взагалі функціонувати в такому середовищі.
Сценарій 2: Кібератаки, які більше не потребують хакерів. Кібератаки на критичну інфраструктуру — не нова загроза. Але ШІ може знизити поріг входу настільки, що терористичні угруповання без досвіду в кодуванні отримають можливості, раніше доступні лише державним спецслужбам.
Дослідники вже продемонстрували: сучасні великі мовні моделі здатні автономно знаходити і експлуатувати вразливості «одного дня» (ще не залатані дірки в програмному забезпеченні). Кібератаки, які ще нещодавно вимагали місяців роботи висококваліфікованої команди, в принципі можуть бути автоматизовані.
Важливий контекст: Україна вже знає це не теоретично. Атаки на електромережу українських міст за допомогою шкідливого програмного забезпечення Sandworm відбулися ще до масштабної війни. Тоді — без ШІ. З ШІ — масштаб і складність таких атак потенційно зростають на порядки. Наслідки можуть бути катастрофічними: паралізовані лікарні, відключений зв’язок, зупинена логістика, хаос у містах.
Сценарій 3: Тихий переворот без революції. Третій сценарій найтихіший — і, мабуть, найімовірніший у короткостроковій перспективі. Ніхто не планує «захоплення влади ШІ». Просто кожен окремий крок здається раціональним.
Компанія A замінює HR-менеджерів алгоритмом відбору резюме — дешевше. Банк B передає ШІ рішення про кредити — швидше і «об’єктивніше». Уряд C автоматизує розподіл соціальних виплат — ефективніше. Армія D автоматизує розпізнавання цілей — точніше в певних умовах. Кожне рішення — по суті розумне. Сукупно — ми отримуємо суспільство, де ключові рішення про людей приймають системи, які не мають свідомості, не несуть моральної відповідальності і не можуть бути притягнуті до суду.
Бернарді описує механізм «ерозії цінностей»: поступово люди починають просто приймати рішення ШІ як данність, навіть якщо ці рішення упереджені або шкідливі. Звідси — «автоматизаційний ухил» (automation bias): схильність людей довіряти автоматичним системам навіть тоді, коли власний здоровий глузд підказує щось інше. А це, у довгостроковій перспективі, веде до атрофії людської здатності до самоврядування — те, що один дослідник назвав «людською немічністю» (human enfeeblement).
Як адаптувати суспільство до ШІ: три рівні відповіді
Зіткнувшись із цими трьома сценаріями — і усвідомивши, що технічні захисти в самих моделях не є достатнім рішенням — Бернарді пропонує принципово інший підхід. Замість «контролюємо технологію» — «адаптуємо суспільство».
Він вводить просту, але потужну тримодульну рамку. Для будь-якого потенційного ризику від ШІ можна застосувати три рівні втручання.
Рівень 1 — Уникнення (Avoidance). Мета: зробити шкідливе використання складнішим або дорожчим, не чіпаючи саму модель. Приклади: вимога «доказу людяності» для реєстрації облікових записів у соцмережах — щоб боти не могли масштабувати дезінформацію. Криміналізація конкретних видів шкідливого використання ШІ — наприклад, синтетичних матеріалів для маніпуляції виборами. Обмеження доступу до певних ресурсів, необхідних для шкідливих операцій.
Рівень 2 — Захист (Defence). Другий рівень — захист — виходить з тверезого припущення: хтось це все одно зробить. Питання не «як не допустити» — а «як зменшити шкоду, коли це вже відбувається». Конкретно це виглядає так. Люди, які вміють відрізнити синтетичне відео від справжнього, — менш вразливі до маніпуляцій. Отже, медіаграмотність — вже не факультатив у школі, а інфраструктура безпеки. Захисний ШІ, який шукає вразливості у власних системах швидше, ніж атакувальний ШІ їх знаходить — це буквально гонка озброєнь, де ставка не перемога, а мінімальна затримка між атакою і відповіддю. Цифрові підписи на кожному фото і відео з моменту створення — щоб будь-яка зміна залишала слід, а походження контенту можна було перевірити як відбиток пальця. І нарешті — мабуть, найпростіша, але найчастіше ігнорована ідея: у критичних рішеннях має бути людина. Не для галочки — а реально. З правом сказати «ні».
Рівень 3 — Виправлення (Remedy). Третій рівень — виправлення — це найскромніший з трьох. Він не запобігає атаці і не зупиняє її в процесі. Він займається тим, що залишилося після. Але саме тут часто вирішується, чи стане катастрофа тимчасовим потрясінням або постійним шрамом.
Лікарня без електрики — це не просто незручність. Це смерті. Тому резервне живлення, відключене від основної мережі, — не розкіш і не параноя. Це різниця між «атака вдалася» і «атака вдалася, але нікого не вбила». Так само і з виборами: навіть якщо маніпуляція відбулася — прозоре публічне розслідування може відновити довіру краще, ніж мовчання. Кілька країн вже переголосовували після доведених втручань — Німеччина, Індія, Малаві. Це не ознака слабкості системи. Це ознака того, що система достатньо жива, щоб себе виправити.
Виправлення — це, по суті, інституційний імунітет. Не захист від хвороби, а здатність одужати.
Зберемо все разом на одному прикладі — кібератака на електромережу.
- Уникнення: міжнародні угоди, які ускладнюють координацію між терористичними групами, і системи раннього виявлення підозрілої активності ще до того, як атака почалася.
- Захист: ШІ-системи, які безперервно шукають вразливості у власній інфраструктурі — і латають їх швидше, ніж атакувальний ШІ встигає ними скористатися.
- Виправлення: генератори в лікарнях, підключені до незалежної мережі, плани відновлення, які можна запустити за годину, компенсації для бізнесу, який постраждав.
Зверніть на принципову різницю з тим, що зазвичай називають «безпекою ШІ». Ця рамка не намагається заборонити технологію або закрити їй доступ до певних знань. Вона з самого початку виходить з того, що потужний ШІ поширюватиметься — незалежно від того, хочемо ми цього чи ні. І замість безнадійної спроби поставити замок на двері, які вже відкриті, — будує суспільство, яке здатне вистояти після удару.
Як встигати за ШІ, якщо інститути рухаються роками, а моделі — щомісяця?
Але навіть найкраща рамка не спрацює, якщо суспільство не здатне її реалізувати в динаміці. А ШІ розвивається надзвичайно швидко. Той ризик, який здається невеликим сьогодні, може стати критичним за 18 місяців.
Тому центральна ідея другої частини роботи Бернарді — поняття «стійкості» (resilience) як здатності до адаптації. Не стан — а процес. Не «ми готові» — а «ми готові ставати готовими».
Вчені описують «тривимірний цикл адаптації», який суспільство має безперервно виконувати.
Крок 1: ідентифікація і оцінка ризиків. Постійне відстеження того, як розвиваються можливості ШІ, як вони поширюються, де з’являються нові точки вразливості. Це не одноразова оцінка — це безперервний моніторинг.
Крок 2: ідентифікація і оцінка відповідних заходів. Для кожного виявленого ризику — пошук можливих відповідей: через уникнення, захист або виправлення. Оцінка їхньої ефективності та вартості.
Крок 3: впровадження і вимірювання. Реалізація обраних заходів і відстеження того, чи вони реально знижують ризик. Якщо ні — коригування.
Бернарді порівнює це з адаптацією до кліматичних змін. Там теж недостатньо просто «зупинити емісії» — суспільства мають паралельно будувати дамби, змінювати сільськогосподарські практики, перебудовувати міста. І цей процес безперервний, бо клімат продовжує змінюватися.
З ШІ складніше, ніж із кліматом, по одній причині: темп змін у ШІ набагато швидший. Суспільні інститути, як правило, мають інерцію. Вони рухаються повільно, узгоджують рішення роками, змінюють норми законодавства десятиліттями. А ШІ-системи оновлюються щомісяці. Цей розрив між швидкістю технології і повільністю інститутів — одна з найсерйозніших системних проблем.
Особливо складна — міжнародна координація. Якщо одна країна впроваджує строгі обмеження на ШІ, але сусідня — ні, небезпечні застосування просто переміщуються туди, де менше регулювання. Вже зараз труднощі в координації між Інститутами безпеки ШІ різних країн призвели до того, що деякі фронтирні моделі виходять на ринок без жодного незалежного публічного тестування перед розгортанням. Це не гіпотетична проблема — це те, що відбувається прямо зараз.
Дев’ять речей, які варто зробити
Бернарді та колеги завершують роботу дев’ятьма конкретними рекомендаціями, адресованими урядам, промисловості й дослідницькому середовищу. Це не загальні слова — це операційні кроки.
- Вимірювати і передбачати ризики. Уряди мають фінансувати незалежні дослідження можливостей і ризиків ШІ. Великі ШІ-компанії мають проводити оцінку ризиків до розгортання — разом з урядом і третіми сторонами, не лише всередині компанії.
- Будувати екосистему зовнішнього контролю. Рішення про розробку і розгортання потужних ШІ-систем не можуть залишатися лише внутрішньою справою компаній. Потрібні незалежні аудитори, які мають реальний доступ до систем і чиї висновки реально враховуються.
- Встановити механізми звітності про інциденти. Коли ШІ-система завдає шкоди — мають бути системи, які фіксують це, аналізують і повідомляють усіх зацікавлених. Як авіаційні інциденти: кожна аварія детально розслідується і результати публікуються, щоб інші авіакомпанії могли вчитися.
- Застосовувати поступове розгортання. ШІ-компанії мають розгортати фронтирні системи поступово — спочатку обмеженій аудиторії, потім ширшій — щоб суспільство мало час виявляти проблеми і адаптуватися до них.
- Підвищувати ШІ-грамотність. Освіта, уряди і журналісти мають системно пояснювати широкій аудиторії, що можуть і чого не можуть сучасні ШІ-системи. Це не розкіш — це передумова здорового демократичного обговорення.
- Криміналізувати шкідливі застосування. Певні види використання ШІ мають бути заборонені законом: маніпуляція виборами через синтетичний контент, кібератаки на критичну інфраструктуру, шантаж за допомогою дипфейків.
- Розвивати захисний ШІ. Уряди мають стимулювати розробку ШІ-систем для захисних застосувань: пошук вразливостей у власних системах швидше, ніж атакувальний ШІ їх знаходить; виявлення синтетичного контенту; моніторинг аномальної активності.
- Забезпечувати міжнародну координацію. Різні національні Інститути безпеки ШІ мають координуватися між собою. Передпублічне тестування фронтирних систем має стати нормою, а не виключенням.
- Інвестувати в адаптацію. Уряди, філантропи і приватні структури мають виділяти ресурси саме на адаптацію суспільства — не лише на розробку самих систем ШІ. Створення нових інститутів, орієнтованих спеціально на управління ризиками від ШІ, — від фондів стійкості до спеціалізованих регуляторних органів.
Де тут Україна — і де ми всі
Є спокуса читати ці роботи як щось абстрактне, далеке від реалій фронту або блекаутів. Але це було б помилкою.
Флоріді описує ШІ як «дієздатність без інтелекту», яка вже трансформує те, як функціонують інститути, системи, рішення. Ця трансформація відбувається в Україні зараз: дрони з ШІ-розпізнаванням цілей, алгоритмічна логістика постачань, ШІ-системи аналізу розвідувальних даних. Це вже не майбутнє — це зброя, яка застосовується сьогодні.
Бернарді каже: кібератаки на критичну інфраструктуру — ключовий сценарій ризику. Для України це не гіпотетичний ризик: атаки на електромережу вже відбувалися, ще до повномасштабної агресії. Питання в тому, що відбудеться, коли на допомогу таким атакам прийдуть ШІ-системи, здатні автоматично знаходити вразливості і масштабувати атаки.
Разом обидві роботи кажуть одне і те ж: не варто чекати, поки проблема стане настільки очевидною, що відмахнутися буде неможливо. Механізм адаптації потрібно будувати зараз. Не як реакцію — а як систему, здатну реагувати.
Стійкість до ШІ — це не захист від технології. Це здатність суспільства управляти собою в умовах технології. Здатність, яку треба практикувати й розвивати — як м’яз, а не вмикати, як вимикач.
Флоріді завершує свою роботу реченням, яке варто прочитати уважно:
«Всі освічені люди це знають. Питання в тому, чи знають це ті, хто приймає рішення».
Чому це важливо знати
Дві наукові роботи — одна філософська, одна прикладна — разом формують нову рамку для розмови про ШІ: не «зупинимо небезпечні системи» (це вже стає нереалістичним), а «зробімо суспільство стійким до їхніх наслідків». Для України, яка живе в умовах реальної гібридної агресії та постійних атак на критичну інфраструктуру, ця рамка не абстрактна — вона операційна. Питання «як побудувати стійкість?» — від резервних лікарняних генераторів до систем виявлення дипфейків — вже не можна відкладати.

Медіаменеджер і автор-фрілансер з 1991 року. Займається креативним продакшном та розвитком медіа.
Усі статті автора →









