Великі моделі ШІ — це культурні й соціальні технології, а не агенти

У статті для журналу Science автори закликають переосмислити штучний інтелект — зокрема великі мовні моделі (LLM) — не як агентів, а як новий тип культурної та соціальної технології, аналогічної до письма, друку, ринку чи бюрократії. Замість дебатів про гіпотетичне AGI (Artificial General Intelligence), вони пропонують зосередитися на реальних наслідках використання LLM уже сьогодні — у виробництві знань, координації, культурному впливі, економічному розподілі та владі.
Автори: Henry Farrell, Alison Gopnik, Cosma Shalizi, James Evans
Основна теза:
LLM — не “інтелектуальні агенти”, а “соціальні системи переробки інформації”, що абстрагують, трансформують і реструктуризують культурні надбання людства.
Ключові компоненти статті:
1. Неправильна рамка AGI
- Сучасні дебати (про загальний ШІ, “свідомість”, “екзистенційні ризики”) відволікають увагу від дійсних, вже наявних соціальних наслідків.
- LLM не мають уявлення про істинність, мету, контекст — це прогностичні системи, що моделюють мовні (та візуальні) патерни.
“Чат-боти — це спадкоємці Геркулеса, Анансі та Пітера Реббіта.”
2. Історичний контекст: соціальні технології
- Автори проводять аналогії з:
- Письмом і друком — архівація й передача знання;
- Бюрократіями — систематизація й категоризація складних суспільств;
- Ринками — агрегування та стиснення величезних потоків інформації у прості сигнали (наприклад, ціни).
“Ці системи — як ‘lossy JPEG’: спрощене, але потужне відображення культурного масиву.”
3. Наслідки для знань і координації
- LLM виступають масштабованими засобами трансформації знань, дозволяючи:
- стискати складну інформацію;
- генерувати нові комбінації значень;
- виявляти приховані патерни.
“Це як мати доступ до розмови з мільйонами попередніх авторів, редакторів і користувачів водночас.”
4. Роль людини не зникає
- Моделі функціонують лише тому, що:
- вони навчені на людських даних;
- їхні відповіді оцінюються й коригуються людьми (RLHF);
- інженери, користувачі, промптери — активні учасники нового ланцюга виробництва знання.
5. Культурні ризики та дилеми
- Гомогенізація знань та стилів (модель «усереднює» контент).
- Фрагментація через персоналізовані або політично забарвлені моделі.
- Схиляння до повторення, а не відкриття нового, якщо не змінити мету розробки.
6. Економіка: хто отримує вигоду
- Напруга між творцями контенту та власниками моделей:
- Авторам потрібне поширення, а власникам систем — безоплатний доступ до їхніх даних.
- Усе більш централізована власність моделей посилює асиметрію у вигодах.
“Як і з друком або пошуковиками — нові технології концентрують вплив у руках меншин.”
7. Політичні наслідки
- ШІ системи надають видимість нових речей (того, що можна «виміряти») — і водночас відтісняють менш видиме.
- Як у випадку з ВВП, рейтингами або демографією — політика починає опиратись на спрощені уявлення про складні явища.
“AI підсилює позиції тих, хто його контролює, і послаблює тих, хто лише «використовується».”
8. Інституційна реакція: уроки історії
Ключові запитання на майбутнє:
- Чи уніфікують LLM культуру, чи навпаки — зроблять її багатоголосою?
- Чи можуть моделі дебатувати між собою, створюючи екосистему знань?
- Як уникнути концентрації впливу в руках технологічних гігантів?
- Як забезпечити культурну й етичну диверсифікацію систем ШІ?
Висновок:
LLM — не нові агенти, а нові інфраструктури мислення, у яких людська творчість, соціальні норми та технічні потужності взаємодіють.
Справжній виклик не в контролі над «машиною», а в будівництві нових інституцій, що допоможуть суспільству адаптуватися, розкрити можливості та мінімізувати втрати.
1. LLM і демократія
Механізм впливу:
- LLM узагальнюють масиви суспільних наративів, політичних позицій, публічних емоцій.
- Вони стають інфраструктурою для цифрової демократії, участі, консультацій — або маніпуляції.
Загрози:
- Політична гомогенізація: системи краще працюють із “середнім” дискурсом → витіснення маргінальних або радикальних ідей.
- Глибинна фальсифікація дебатів: моделі генерують відповіді, схожі на «суспільну думку», без реального залучення громадян.
- Централізація впливу: лише великі актори мають доступ до тренування або контролю моделей → нерівність у доступі до «репрезентованої публічності».
Можливості:
- Моделювання демократичних процесів: симуляція «суспільних зборів», тестування політик, аналіз публічних наслідків.
- Участь громадян через промпти: LLM стає перекладачем між чиновниками й громадянами — спрощення доступу до рішень.
- Автоматизовані оцінки впливу політик — наративна аналітика на основі історичних та емпіричних даних.
2. LLM і ринок знань / академія
Механізм впливу:
- Моделі виступають вторинним ринком змісту: вони перетворюють, комбінують, фільтрують знання, створене іншими.
Загрози:
- Руйнування авторства: генеративні моделі стирають джерела, знання «розчиняється» у вихідному масиві.
- Монополізація інтерфейсів доступу до знання (через API, платформи).
- Криза наукових журналів / ЗВО: роль LLM як «головного довідника» знижує потребу в академічних пошуках.
Можливості:
- Доступність експертного рівня знання для широкого загалу.
- Виявлення міждисциплінарних закономірностей, неочевидних для окремих дослідників.
- Пошук “сліпих плям” у знаннях через аналіз відсутніх або недопредставлених тем.
3. LLM і журналістика
Механізм впливу:
- LLM — це масштабована система переказу, інтерпретації та стилізації інформації.
Загрози:
- Падіння довіри: неможливість відрізнити “людський” репортаж від синтезованого тексту → криза аутентичності.
- Фінансова деградація: моделі використовують медіа як тренувальні дані, але не повертають вартість виробникам новин.
- Формалізація стилю: новинні тексти стають уніфікованими, без живого контексту чи польової роботи.
Можливості:
- Миттєвий переклад і локалізація новин.
- Журналістика даних 2.0: LLM можуть оперативно обробляти й пояснювати масиви структурованої інформації.
- Персоналізовані стрічки новин, адаптовані до культурного контексту та потреб аудиторії.
4. LLM і культура
Механізм впливу:
- LLM відображають і реконструюють сумарну культурну пам’ять — тексти, образи, наративи.
Загрози:
- Гомогенізація стилів: генерація “усередненого” мистецтва.
- Розмивання локальної ідентичності: алгоритми базуються переважно на глобалізованому контенті.
- Комодифікація креативності: культурна продукція стає «продуктом» алгоритму.
Можливості:
- Доступ до світової культури через генеративні інтерфейси (поезія, музика, мистецтво).
- Відновлення забутих стилів або жанрів — LLM можуть реконструювати втрачені стилістичні практики.
- Нові типи співтворчості: людина + LLM як гібридна студія митця.
5. LLM і політична економія
Механізм впливу:
- LLM виступають механізмом перерозподілу когнітивної праці — автоматизація знань, комунікацій, аналізу.
Загрози:
- Замінюваність «знаннєвих працівників» (журналістів, юристів, аналітиків).
- Експлуатація даних без компенсації: користувачі → постачальники даних без оплати.
- Концентрація ренти в руках великих платформ (OpenAI, Google, Anthropic).
Можливості:
- Нові типи праці: prompt design, інтерактивна аналітика, соціотехнічна інженерія.
- Демократизація експертизи — доступ до високорівневої інформації без диплома чи офісу.
- Моделі колективного володіння / open-source LLM як альтернатива комерційним гігантам.
🔗 Джерело:
Farrell, H., Gopnik, A., Shalizi, C., Evans, J. (2025). Large AI models are cultural and social technologies. Science, March 13, 2025. DOI: 10.1126/science.adt9819