Skip to main content

Як штучний інтелект викривлює наукові дослідження: чому потрібні нові правила гри

Штучний інтелект стрімко перетворюється на головний інструмент пошуку наукових знань. Проте разом із зручністю зростають ризики системних викривлень, про які попереджає дослідник метанауки та психології Чжиченг Лін у статті для Nature.

 |  Андрій Миколайчук  | 
робот стоїть посеред зали бібліотеки
Авторська ілюстративна генерація за допомогою Midjourney

Сучасне інформаційне середовище тепер контролюють «машини відповідей» — ШІ-чатботи, які синтезують і подають інформацію безпосередньо користувачам. На відміну від традиційних пошукових систем, вони не перенаправляють до першоджерел, а формують готові відповіді.

Масштаби «видобутку» контенту вражають. За даними генерального директора Cloudflare Метью Прінса, у середині 2025 року OpenAI збирала близько 1500 сторінок матеріалів на кожного відвідувача, якого спрямовувала на сайт видавця — порівняно з 250 сторінками на початку року. Показники Anthropic зросли ще драматичніше: з 6000 до 60000 сторінок. Навіть Google, який традиційно генерував трафік для видавців, після запуску AI Overviews збільшив співвідношення з 6 до 18 сторінок.

Приховані упередження замість очевидних помилок

«Я вважаю цей перехід найважливішою зміною у відкритті знань за покоління»,

— зазначає Лін. Проблема не в «галюцинаціях» ШІ — вигадках, які можна виправити. Справжня загроза криється в упередженостях та вразливостях реальної інформації, яку ці системи подають користувачам.

Коли дослідники просять ШІ порекомендувати рецензентів, алгоритми демонструють системні упередження. Дослідження у галузі фізики виявило: системи штучного інтелекту надмірно представляли вчених з іменами, які науковці класифікували як «білі», та недостатньо представляли тих, чиї імена класифікували як азійські.

Ефект Матвія на стероїдах

Викривлення поширюється й на наукову літературу. ШІ-системи послідовно посилюють «ефект Матвія» — тенденцію, коли високоцитовані роботи накопичують ще більше цитувань, а маловідомі дослідження залишаються непоміченими.

Цифри говорять самі за себе: понад 60% рекомендацій, згенерованих ШІ, припадають на топ-1% найбільш цитованих статей. Це вдвічі перевищує показник списків літератури, укладених людьми. Системи штучного інтелекту засвоїли людські моделі цитування та довели їх до крайності.

Парадокс контролю

Академічна спільнота потрапила в пастку подвійних стандартів. Дослідники скрупульозно перевіряють кожне речення, згенероване ШІ, вимагають прозорості та відповідальності у використанні цих інструментів для написання статей. Але в той самий час безкритично приймають рішення алгоритмів про те, кого цитувати, які методи вважати актуальними та які напрямки досліджень варті уваги.

«Загроза полягає не в тому, як ми створюємо наукові тексти, а в тому, як ми шукаємо наукову інформацію», — наголошує Лін.

Ми ретельно шукаємо сліди ШІ в тексті, але не помічаємо, як алгоритми формують саму карту наукового знання. Це як перевіряти граматику в листі, не звертаючи уваги на те, що адресу обрав не ти.

Ситуація стає ще тривожнішою через наближення ери автономних дослідницьких агентів. Це вже не просто асистенти — це ШІ-системи, здатні самостійно проводити літературні огляди, планувати та навіть виконувати експерименти. Уявіть: алгоритм, який спочатку вибирає, що варто досліджувати, потім сам це досліджує, а наприкінці рекомендує, кого процитувати у висновках.

Три кроки до розумного майбутнього

Лін пропонує не забороняти ШІ-інструменти — це було б непрактично та контрпродуктивно. Натомість потрібні чіткі керівні принципи:

  • Перше: дослідження реальних робочих процесів. Науковці та фонди мають очолити програму досліджень, яка перевіряє, як ці системи працюють у реалістичних академічних процесах. Це включає оцінку ризиків упередженості в пошуку з підтримкою ШІ та боротьбу з такими загрозами, як «ін’єкція промптів» — приховані шкідливі інструкції, які можуть маніпулювати результатами моделі.
  • Друге: навчання дослідників критичному мисленню. Академічні установи повинні розробити програми, які допоможуть науковцям ставитися до ШІ-інструментів як до «потужних, але помилкових асистентів». Замість запитів про «найважливіші статті», дослідники мають навчитися запитувати про різноманітні перспективи: «Яка критика існує щодо теорії X?» або «Які молоді вчені працюють над темою Y?»
  • Третє: підготовка експертних комісій. Оскільки грантові заявки дедалі частіше містять огляди літератури, підготовлені ШІ, експертні комісії потребують навчання для розпізнавання ознак впливу ШІ: надмірна залежність від кількох високоцитованих робіт та систематична відсутність суперечливих або методологічно різноманітних досліджень.

Чому це важливо знати

Для України ця дискусія має особливе значення. В умовах війни та обмежених ресурсів доступ до якісних наукових досліджень стає ще критичнішим. Якщо українська академічна спільнота сліпо довірятиме рекомендаціям ШІ, це може призвести до інтелектуальної ізоляції — замикання в колі найпопулярніших робіт без доступу до інноваційних ідей та альтернативних підходів.

Розробка правил використання штучного інтелекту в науці — це не просто технічне питання. Це гарантія того, що українські вчені матимуть справді різнобічний доступ до світових знань, а не лише до «канонічних» імен та теорій. У час, коли країна бореться за своє майбутнє, здатність критично мислити та знаходити нестандартні рішення стає питанням виживання та розвитку.