Київ потребує допомоги ШІ в умовах війни, але нові моделі помиляються в половині випадків
Найновіші моделі штучного інтелекту OpenAI помиляються вдвічі частіше за попередників — до 48% відповідей містять вигадану інформацію, пише LiveScience. Розповідаємо, що потрібно знати київським компаніям та спеціалістам, які розраховують на ШІ в умовах кадрової кризи.
Парадокс розвитку: чим розумніший ШІ, тим більше помиляється
Дослідження OpenAI виявило несподівану закономірність: найпотужніші моделі штучного інтелекту — o3 і o4-mini — галюцинують (видають неправдиву інформацію) у 33% і 48% випадків відповідно. Це вдвічі більше, ніж у попередньої моделі o1, яка помилялася лише в 17% випадків.
Елеонор Вотсон, інженерка з етики ШІ та членкиня IEEE, попереджає:
«Коли система видає вигадану інформацію — неіснуючі факти, цитати чи події — з тією ж плавністю та переконливістю, що й правдиву, вона ризикує ввести користувачів в оману непомітними, але критичними способами».
В умовах, коли половина країни на фронті, а інша половина працює під постійною загрозою ракетних обстрілів, київський ринок праці переживає гостру кадрову кризу. IT-компанії, державні установи, медичні заклади — всі відчувають брак кваліфікованих спеціалістів.
Штучний інтелект міг би стати рішенням: автоматизувати рутинні процеси, взяти на себе частину завдань, звільнивши людей для біль важливої, критичної роботи. Але парадокс у тому, що чим потужніші стають ШІ-системи, тим більше вони потребують людського контролю.
Галюцинації як необхідне зло
Сохроб Казеруніан, дослідник ШІ з Vectra AI, пояснює несподівану природу проблеми:
«Галюцинація — це особливість, а не баг ШІ. Все, що видає мовна модель, — це галюцинація. Просто деякі з них виявляються правдивими».
Без здатності «фантазувати» ШІ перетворився б на звичайну пошукову систему — міг би лише відтворювати вже існуючу інформацію. Не було б ні креативних рішень, ні інноваційного коду, ні нових підходів до вирішення проблем.
Нова загроза: непомітні помилки
Найбільше експертів турбує еволюція помилок. Якщо раніше ШІ видавав очевидні нісенітниці, то тепер він майстерно вплітає вигадки в логічні та переконливі наративи.
«Проблема змістилася від фільтрування грубих помилок до виявлення тонких спотворень, які розкриваються лише при ретельному аналізі», — зазначає Вотсон.
Даріо Амодей, CEO Anthropic, визнає:
«Коли генеративна ШІ-система щось робить, наприклад, підсумовує фінансовий документ, ми не маємо жодного уявлення на конкретному чи точному рівні, чому вона робить саме такий вибір».
Реальні наслідки вже відчутні
Казеруніан наводить приклади проблем, які вже стали буденністю:
- Вигадані наукові посилання в академічних роботах
- Чатботи компаній, що створюють неіснуючі корпоративні політики
- Помилкові юридичні прецеденти в судових документах
Для Києва, де ШІ активно впроваджується в критичну інфраструктуру — від систем ППО до медичної діагностики — такі помилки можуть мати катастрофічні наслідки.
Чому це важливо знати
Україна вже інтегрує ШІ у критичні сфери — від систем ППО до медичної діагностики. Але галюцинації можуть коштувати життів: неправильний діагноз у польовому госпіталі чи помилкова ідентифікація цілі в системі оборони.
Ми покладали великі надії на штучний інтелект як рішення кадрової кризи. Адже коли половина країни воює, а інша працює під обстрілами, автоматизація здавалася порятунком. Проте виявилося: чим розумніший ШІ, тим більше потребує людського нагляду.
Парадокс у тому, що наші слабкості можуть стати перевагою. Саме тому, що ми змушені критично ставитися до кожного рішення ШІ в умовах війни, Україна може стати світовим лідером у галузі безпечного використання штучного інтелекту. Але для цього треба визнати: ШІ — не чарівна паличка, а інструмент, який працює лише в тандемі з людиною.