Skip to main content

Чому «хрещений батько AI» попереджає про ризики штучного інтелекту

Джефрі Гінтон, нобелівський лауреат 2024 року та один із засновників сучасного штучного інтелекту, дав розгорнуте інтерв’ю виданню Persuasion, у якому пояснив, як працює AI і чому його розвиток становить серйозну загрозу для людства.

 |  Андрій Миколайчук  | 
Інформатик Джефрі Гінтон
Англо-канадський когнітивний психолог та інформатик Джефрі Гінтон. Фото: Arthur Petron / CC / Wikipedia)
  • Хто такий Джефрі Гінтон і чому його думка важлива?
    Джефрі Гінтон — когнітивний психолог та комп’ютерник, якого називають «хрещеним батьком штучного інтелекту». У 2024 році він отримав Нобелівську премію з фізики разом із Джоном Хопфілдом за роботу над нейронними мережами, що стали основою сучасного AI.
  • Як працює сучасний штучний інтелект?
    Сучасний AI базується на нейронних мережах, які навчаються розпізнавати закономірності в даних — подібно до того, як працює людський мозок. Замість жорстких логічних правил, системи як ChatGPT навчаються передбачати наступне слово, що змушує їх розуміти контекст і значення.
  • Які ризики несе розвиток AI для людства?
    Хінтон попереджає про екзистенційні загрози від AI, включаючи можливість створення систем, які перевершать людський інтелект і стануть некерованими. Він наголошує на необхідності термінового обговорення безпеки AI перед тим, як технологія стане занадто потужною.

Чому логічний підхід до AI не спрацював?

Протягом XX століття дослідники намагалися створити штучний інтелект на основі формальної логіки. Вони вважали, що ключ до інтелекту — це здатність до логічного мислення, тому намагалися запрограмувати комп’ютери за допомогою чітких правил і символьних систем. Цей підхід не дав бажаних результатів і призвів до кількох «зим AI» — періодів розчарування та скорочення фінансування досліджень.

Альтернативний підхід, який відстоював Гінтон, базувався на біологічному натхненні — на тому, як працює людський мозок. Замість того, щоб навчати машину логічним правилам, дослідники почали створювати штучні нейронні мережі, які змінюють силу зв’язків між «нейронами» подібно до того, як це відбувається в мозку.

Ключова відмінність у тому, що логічний AI починав із найскладнішого — з усвідомленого, послідовного мислення, яке Деніел Канеман називає «системою 2». Натомість нейронні мережі почали з базових навичок, які є у багатьох тварин: сприйняття, інтуїція, моторний контроль.

«Очевидно, що ми просто розвинена мавпа, і потрібно розуміти, як мислять тварини», — пояснює Гінтон.

Як нейронні мережі вчаться бачити світ?

Гінтон детально пояснює, як працює розпізнавання образів у нейронних мережах на прикладі виявлення птахів на зображеннях. Процес відбувається послідовно через кілька шарів:

  • Перший шар виявляє найпростіші елементи — маленькі шматочки країв у всіх позиціях, орієнтаціях і масштабах зображення. Для цього потрібні мільйони детекторів.
  • Другий шар комбінує ці краї в більш складні форми: можливі дзьоби (де краї сходяться під кутом), очі (кільце з країв), лапи. Це вже ознаки, типові для птахів.
  • Третій шар шукає комбінації цих елементів: дзьоб і око в правильному співвідношенні формують голову птаха.
  • Фінальний шар аналізує, чи є достатньо ознак птаха (голова, крила, лапи), щоб впевнено сказати «це птах».

Критично важливо, що систему не треба програмувати вручну для виявлення кожної ознаки. Вона сама навчається розпізнавати ці елементи через алгоритм зворотного поширення помилки (backpropagation), який Гінтон допоміг розробити в 1980-х роках.

Що таке зворотне поширення помилки і чому це прорив?

Зворотне поширення — це метод, який дозволяє нейронній мережі навчатися ефективно. Принцип простий: система бачить зображення птаха і каже «55% ймовірності, що це птах». Оскільки насправді це птах, алгоритм обчислює помилку в 45% і відправляє цю інформацію назад через усі шари мережі.

Геніальність методу в тому, що він дозволяє одночасно коригувати мільярди зв’язків між нейронами. Це робить систему в мільярд разів швидшою порівняно з примітивним підходом, де потрібно було б змінювати кожен зв’язок окремо і перевіряти результат.

«Наш внесок — мій, Рональда Гарта та Вільямса — полягав у демонстрації того, що зворотне поширення може навчитися розуміти значення слів і створювати складні репрезентації понять», — пояснює Гінтон.

У 1986 році команда Гінтона була переконана: вони розв’язали проблему машинного навчання. Але технологія не працювала в реальному масштабі. Причина виявилася банальною, хоч і незручною для визнання: бракувало потужності комп’ютерів і обсягу даних для навчання.

«Якби ми тоді сказали, що потрібно просто більше ресурсів, нас би підняли на сміх — мовляв, шукаємо виправдання. Але насправді нам справді потрібно було в мільйон разів більше даних і в мільйон разів більше обчислювальної потужності. Коли це з’явилося — все спрацювало блискуче», — зізнається Гінтон.

Чому великі мовні моделі не є просто «стохастичними папугами»?

Один із поширених аргументів проти сучасного AI — що системи як ChatGPT є лише «стохастичними папугами», які механічно передбачають наступне слово на основі статистики, не розуміючи значення. Гінтон рішуче заперечує це твердження.

Критики, зокрема лінгвіст Ноам Хомський, виходять із переконання, що мова — це вроджена система дискретних правил. Хомський вважав статистичний підхід до мови абсурдним і стверджував, що великі мовні моделі не можуть навчитися граматиці без вродженого знання.

«Виявляється, він повністю помиляється, принаймні на мою думку», — каже Гінтон.

Великі мовні моделі доводять, що можна досягти глибокого розуміння мови без будь-якого вродженого знання граматики — лише спостерігаючи достатню кількість мовних прикладів.

Ключ у тому, що для справді точного передбачення наступного слова система мусить розуміти зміст сказаного. Уявіть: якщо наступне слово — це початок відповіді на запитання, а контекст — саме це запитання, то без розуміння суті запитання неможливо дати хорошу відповідь.

«Навчання великих мовних моделей передбачати наступне слово автоматично змушує їх розуміти зміст тексту. Критики, які говорять про “стохастичних папуг”, не усвідомлюють простої речі: щоб передбачити наступне слово, треба зрозуміти, про що йдеться», — наполягає Гінтон.

Наскільки AI схожий на людський мозок?

«Для мене це, мабуть, найважливіше питання в нейронауці: наскільки подібний спосіб навчання мозку до того, як вчаться великі мовні моделі?» — визнає Гінтон.

На дуже абстрактному рівні вони подібні. Великі мовні моделі використовують алгоритм зворотного поширення, щоб з’ясувати, чи збільшувати або зменшувати кожну силу зв’язку для покращення роботи системи. Мозок, імовірно, робить щось подібне, але ми не знаємо, як саме він отримує цю інформацію.

Є вагомі причини вважати, що мозок може використовувати інший алгоритм. Великі мовні моделі мають близько трильйона зв’язків, але навчаються на трильйонах прикладів — набагато більше прикладів, ніж зв’язків. Вони стискають величезну кількість знань у відносно обмежену кількість зв’язків.

Людський мозок працює в протилежному режимі. Ми живемо лише близько двох мільярдів секунд — у нас не трильйони переживань, а лише кілька мільярдів. Натомість у нас є сто трильйонів зв’язків — зв’язків більше, ніж достатньо, але обмежений досвід.

«Зворотне поширення дуже добре працює, коли у вас багато досвіду, але обмежена кількість зв’язків. Мозок і великі мовні моделі розв’язують дещо різні проблеми», — пояснює Гінтон.

Як AI долає обмеження в даних?

Одна з найбільших проблем сучасного AI — можливе вичерпання високоякісних даних для навчання. Проте є сфери, де дані не є проблемою. Наприклад, AlphaGo та AlphaZero, які грають у шахи та го, генерують власні навчальні дані, граючи проти самих себе.

Система для гри в шахи має дві нейронні мережі: одна оцінює позицію («це хороша позиція для мене»), інша пропонує хороші ходи. Вони навчаються через метод Монте-Карло — систему випробовує послідовність ходів:

«Якщо я піду сюди, то він, можливо, піде туди, тоді я піду сюди, і — ой — я опинюся в жахливій ситуації».

Якщо мережа спочатку вважала хід хорошим, але програвання довели протилежне, вона коригується: «Це не такий уже й гарний хід». Процес свідомого, послідовного міркування використовується для тренування інтуїції.

«Це приклад того, як вам не потрібен хтось зовні, щоб надавати навчальні приклади. У більшості людей багато переконань, і якби вони міркували логічно, то виявили б, що ці переконання несумісні»,

— каже Гінтон, додаючи їдливе зауваження про прихильників MAGA, які не турбуються про несумісність своїх переконань.

Цей метод уже працює дуже добре в «закритих світах» — шахах, го, математиці. Ви можете висувати припущення про те, що може бути правдою, а потім намагатися їх довести. Гінтон вважає, що великі мовні моделі вже частково використовують цей підхід, і це один зі способів обійти обмеження в зовнішніх даних.

Чи потрібні революційні зміни в архітектурі AI?

Ключове питання майбутнього AI: чи досягнемо ми штучного загального інтелекту (AGI) просто збільшуючи обчислювальну потужність і дані, чи потрібні фундаментальні зміни в архітектурі?

«Ніхто не знає напевно»,

— чесно визнає Гінтон. Досі масштабування систем робило їх кращими, і це все ще так, але виникають практичні проблеми — потрібні величезні обчислювальні ресурси та дані.

Водночас історія показує, що наукові прориви різко прискорюють прогрес. Яскравий приклад — винахід трансформерів у 2017 році співробітниками Google. Трансформери — це нова архітектура нейронних мереж, яка дозволила AI краще «розуміти» контекст і зв’язки між словами в тексті. Саме на трансформерах побудований ChatGPT і всі сучасні великі мовні моделі.

«Ми можемо обґрунтовано очікувати нових наукових проривів, подібних до трансформерів. Ми не знаємо, якими вони будуть і коли відбудуться — адже якби знали, ми б вже їх здійснили», — каже Гінтон.

Окрім наукових відкриттів, він очікує значних інженерних покращень. Сфера штучного інтелекту дуже молода — активно розвивається лише кілька років — тому є величезний простір для підвищення ефективності систем.

Втім, Гінтон скептично ставиться до гібридних підходів, які намагаються поєднати нейронні мережі зі старим символьним AI. Найголосніший прихильник такого підходу — Гері Маркус. Він вважає, що для серйозного прогресу в логічному мисленні потрібно повернутися до символьних виразів і жорстких правил їх обробки.

«Але практика показує інше. Подивіться на прогрес у здатності AI міркувати — там немає жодної спеціальної внутрішньої символьної мови»,

— заперечує Гінтон. У сучасних моделях мислення працює цілком добре, і воно зовсім не схоже на старі логічні системи. Всередині — лише активації нейронів, без жодних символів. Символи існують тільки на вході та виході системи — це звичайна людська мова.

Гінтон порівнює прихильників гібридних систем із виробниками бензинових двигунів, які, визнавши перевагу електромоторів, використовують їх… для впорскування бензину.

«Це спроба втриматися за застарілий бензиновий двигун, прикрутивши до нього електромотор. Ось що таке ці гібридні системи», — іронізує він.

Які екзистенційні ризики несе AI для людства?

Гінтон відкрито попереджає про екзистенційні загрози від штучного інтелекту. Нобелівський лауреат неодноразово наголошував на необхідності серйозного обговорення безпеки AI.

Основна проблема полягає в тому, що системи AI розвиваються швидше, ніж ми встигаємо зрозуміти їхню поведінку та встановити механізми контролю. На відміну від попередніх технологічних революцій, AI має потенціал перевершити людський інтелект у багатьох сферах — і ми не знаємо, як забезпечити, щоб такі системи залишалися керованими та безпечними.

Гінтон також торкається питання віри проти розуму, яке має прямий стосунок до дискусії про AI.

«Є назва для вибору несумісності — це віра. Усе Просвітництво було про вибір розуму замість віри, і ми це втрачаємо», — застерігає він.

Ця заувага особливо актуальна в контексті того, як суспільство реагує на попередження про ризики AI. Якщо люди відмовляються від критичного мислення та послідовної логіки, стає важко провести раціональну дискусію про регулювання технологій, які можуть визначити майбутнє людства.

Чому це важливо знати

Попередження Джефрі Гінтона про ризики AI мають особливу вагу, оскільки вони виходять від однієї з ключових фігур, які створили цю технологію. Це не луддит, який виступає проти технологічного прогресу з принципу, а вчений, який присвятив життя розвитку штучного інтелекту та отримав за це Нобелівську премію.

Для України, яка активно розбудовує AI-індустрію та має талановитих дослідників у цій галузі, розуміння як можливостей, так і загроз штучного інтелекту критично важливе. У світі експоненціального технологічного зростання недостатньо просто використовувати AI для економіки чи безпеки — треба брати участь у глобальній дискусії про етику та регулювання цієї потужної технології.

Гінтон нагадує: штучний інтелект — це не далека фантастика, а реальність, яка вже змінює світ. І якщо ми хочемо, щоб ці зміни були на користь людству, вікно можливостей відкрите саме зараз.

Проаналізувати із ШІ: