Skip to main content

Neurosymbolic AI: як подолати «галюцинації» ChatGPT та інших LLM

Neurosymbolic AI може стати відповіддю на ключову проблему великих мовних моделей (LLM) — їхню схильність до «галюцинацій», пише The Conversation.

 |  Андрій Миколайчук  | 
Neurosymbolic AI: як подолати «галюцинації» ChatGPT та інших LLM
Neurosymbolic AI. Авторська ілюстраційна генерація за допомогою Midjourney

Проблема, яку не можна «залатати»

Справжня загроза штучного інтелекту — не захоплення світу роботами, а те, що навіть найпотужніші мовні моделі на кшталт ChatGPT, Gemini чи LLaMA систематично брешуть. Професор Артур Гарсеш з Лондонського університету переконаний: без поєднання нейромереж із формальною логікою проблему не розв’язати.

Ці помилки називають «галюцинаціями» (AI hallucinations), і вони принципово невиправні. Адже глибоке навчання працює не через розуміння, а через статистичний вибір найімовірнішого наступного слова.

Коли «виправлення» стає цензурою

Показовий випадок: у 2023 році ChatGPT помилково звинуватив американського професора права Джонатана Терлі в сексуальних домаганнях. Замість виправлення помилки, OpenAI просто запрограмувала систему не відповідати на запити про Терлі взагалі.

Такий підхід — «латання дірок» після скандалу — не працює. Те саме стосується упередженості: від культурних стереотипів до західноцентризму. Компанії уникають відповідальності, прикриваючись складністю перевірки алгоритмів.

Замкнене коло помилок

Навіть ухвалення Європейським Союзом AI Act у 2024 році не зупинило проблему. Закон покладається на саморегулювання компаній, а не на технічне розв’язання.

Більше того: моделі дедалі частіше тренуються на штучно згенерованих даних (synthetic data). Результат — замкнене коло, де нові системи успадковують помилки й упередження старих, множачи їх з кожною ітерацією.

Neurosymbolic AI: коли логіка зустрічає нейромережі

Уявіть штучний інтелект, який думає як людина: спочатку вивчає загальні правила, а потім застосовує їх до конкретних ситуацій. Саме так працює neurosymbolic AI — гібрид нейронних мереж і формальної логіки.

Замість того, щоб запам’ятовувати мільйони прикладів «дощ → мокро», система засвоює просте правило: «якщо йде дощ, усе надворі зазвичай стає мокрим». Тепер це правило працюватиме для будь-якого об’єкта — навіть того, який система ніколи не бачила.

П’ять переваг над звичайними LLM:

  • Менше даних, більше розуму — не потрібно годувати систему терабайтами текстів
  • Прозора логіка — можна простежити, чому AI ухвалив саме таке рішення
  • Вбудовані запобіжники — система може слідувати етичним правилам на кшталт «рішення не залежить від статі чи раси»
  • Швидке узагальнення — достатньо кількох прикладів, щоб зрозуміти новий принцип
  • Зрозумілі пояснення — AI може пояснити свою логіку простими словами

Як це працює: нейросимволічний цикл

Секрет у процесі, який називають «neurosymbolic cycle». Частково навчена система аналізує свої дані, витягує з них загальні правила, а потім «вшиває» ці правила назад у свою архітектуру. Наступний етап навчання відбувається вже з урахуванням цих правил.

Результат: AI стає водночас гнучким (може вчитися на нових даних) і передбачуваним (слідує чітким логічним принципам).

Три хвилі ШІ: від жорстких правил до гнучкого розуму

Neurosymbolic AI — це не просто нова технологія, а логічний наступний крок в еволюції штучного інтелекту. Історія ШІ розвивалася хвилями, і кожна вирішувала проблеми попередньої:

Перша хвиля (1980-і): правила без гнучкості
Символічний ШІ працював за чіткими правилами, як експертні системи для медичної діагностики. Проблема: не міг адаптуватися до нових ситуацій.

Друга хвиля (2010-і): дані без логіки
Глибоке навчання навпаки — вчилося на величезних масивах даних, але не розуміло загальних принципів. Результат: ChatGPT, який може говорити про все, але нічого не «розуміє».

Третя хвиля (зараз): синтез логіки та адаптивності
Neurosymbolic AI об’єднує сильні сторони обох підходів — гнучкість нейромереж і надійність формальної логіки.

Перші успіхи: від молекул до геометрії

Поки що нейросимволічні системи найкраще працюють у вузьких сферах, де правила чітко визначені. Яскраві приклади від Google:

  • AlphaFold передбачає форму білків для створення нових ліків — тут важлива абсолютна точність
  • AlphaGeometry розв’язує складні геометричні задачі, поєднуючи логічні аксіоми з нейромережним пошуком

На шляху до універсального ШІ

Китайський DeepSeek робить крок до загальних застосувань через метод «дистиляції знань» — спрощення складних моделей до базових принципів. Це вже наближається до нейросимволічного підходу, хоча повноцінні LLM на цих засадах ще потребують досліджень.

Головний виклик: навчити систему самостійно витягувати загальні правила з хаотичних даних реального світу. I ще потрібні дослідження у сфері витягування знань (knowledge extraction) і формалізації правил.

Чому це важливо знати

Для країни, яка веде війну на виживання, штучний інтелект — це не розвага для техніків. Коли ШІ ухвалює рішення в обороні, логістиці чи державному управлінні, помилка може коштувати життів.

Проблема західних «чорних скриньок»

Україна сьогодні залежить від західних ШІ-систем, логіку яких неможливо простежити. ChatGPT чи Gemini можуть «галюцинувати» в найкритичніший момент — і ніхто не зрозуміє, чому. Це питання національної безпеки, а не просто технічних недоліків.

Neurosymbolic AI як шлях до незалежності

Нейросимволічні системи дозволяють створювати справді суверенний ШІ:

  • Локальні дані — навчання на українських реаліях, а не на західних підручниках
  • Прозора логіка — можна простежити кожне рішення системи
  • Вбудовані запобіжники — етичні та безпекові обмеження, «зашиті» в архітектуру
  • Контрольованість — повне розуміння того, як система ухвалює рішення

Вікно можливостей

Технологія ще формується, і Україна може стати не споживачем, а співтворцем нової парадигми ШІ. Українські наукові центри та IT-компанії мають унікальний шанс: замість копіювання західних моделей, створювати власні стандарти надійного ШІ.

В умовах війни, інформаційних атак і критично важливих рішень українцям потрібен штучний інтелект, якому можна довіряти. Neurosymbolic AI може стати основою для нової генерації українських інженерів, які будуватимуть технологічну незалежність країни.