Skip to main content

Як штучний інтелект змінює пропаганду: що потрібно знати українцям у 2025-му

Системи штучного інтелекту для пропаганди тепер можуть працювати повністю автономно, створюючи синтетичні персони на платформах ChatGPT, Perplexity, Claude та соціальних мережах, які адаптуються до аудиторії та координують дії між різними платформами без участі людини, попереджає Лукаш Олейнік, старший дослідник Королівського коледжу Лондону.

 |  Андрій Миколайчук  | 
Як штучний інтелект змінює пропаганду: що потрібно знати українцям у 2025-му
Авторська ілюстративна генерація за допомогою Midjourney

Що саме загрожує інформаційному простору?

Системи штучного інтелекту тепер можуть генерувати сотні політичних коментарів за секунди, які виглядають як написані людьми. ChatGPT, Claude, Perplexity та інші AI-платформи стали основою для створення складних ботів-персон.

Хто може використовувати ці технології?

Будь-яка країна середнього розміру, приватна фірма або навіть окрема людина з мінімальними ресурсами може генерувати тисячі повідомлень через китайські моделі Qwen, Kimi або французьку Mistral.

Чому це важливо для України?

Росія та Китай активно розробляють ці технології для інформаційних операцій. Українці, які перебувають на передовій інформаційної війни, мають знати про нові методи маніпуляцій.

Коли ця проблема стала критичною?

У квітні 2025 року США закрили офіс Держдепартаменту з протидії дезінформації — саме коли інформаційні операції стали стандартним інструментом державної політики.

Що саме змінилося в технологіях пропаганди?

Сучасні AI-системи створюють вже не примітивних ботів минулого, а складні цифрові персони з пам’яттю та адаптивністю. Вони запам’ятовують попередні діалоги, підлаштовують стиль спілкування під аудиторію та синхронізують свої дії між різними платформами — від Twitter до Facebook та Telegram.

Те, що раніше вимагало цілих «фабрик тролів» із сотнями працівників, тепер може зробити один оператор з домашнього ноутбука. Секрет у моделях з відкритим кодом: їх можна завантажити та запустити на звичайному потужному комп’ютері або приватному сервері, без залучення великих корпорацій чи хмарних сервісів.

Часті запитання

Які конкретні моделі використовуються для пропаганди?

Китайські Qwen та Kimi, французька Mistral, американські Gemma та GPT-OSS — всі ці AI-моделі можна запустити на потужному домашньому комп’ютері. Не потрібні ні дата-центри Google, ні сервери Amazon — достатньо ігрового ПК із хорошою відеокартою.

Чи можуть творці ChatGPT або Claude виявити такі операції?

Ні, бо пропагандисти не використовують офіційні сервіси OpenAI чи Anthropic. Вони завантажують моделі собі та запускають локально — це як друкувати фальшиві гроші вдома замість банку. Жодних слідів у системах моніторингу великих компаній не залишається.

Хто розробляє ці технології для військових цілей?

Китайські організації активно розробляють і використовують ці методи, а російські фірми створюють паралельні можливості. Хоча ніхто відкрито не рекламує наступальні можливості, реальність така, що інструменти, створені для цивільних цілей, можуть легко перейти до інформаційної війни. Будь-який мотивований актор — від держави до окремої людини — може перепрофілювати такі інструменти для операцій впливу.

Чому Захід опинився в невигідному становищі?

Демократії Заходу створювалися для світу, де в дискусіях брали участь лише живі люди — не боти, не AI-персони, не алгоритми. Це їхня вразливість у новій реальності.

Росія та Китай грають за іншими правилами. Вони можуть одночасно випускати армії AI-ботів на Захід і блокувати доступ до своїх соцмереж. Росія вже зобов’язує встановлювати російські месенджери на всі смартфони — із вбудованим доступом до кремлівських AI-моделей. Китай фільтрує інтернет через «Велику стіну».

А що Європа та США? Вони не можуть просто заблокувати Telegram чи TikTok — закони про свободу слова не дозволяють. Це як грати в шахи, коли твій суперник може ходити всіма фігурами, а ти — лише білими.

Часті запитання

Чи можуть правила ЄС захистити від AI-пропаганди?

Закон ЄС вимагає позначати контент, створений штучним інтелектом — але російські боти не будуть ставити мітку «Зроблено в Кремлі». Більш ефективний Digital Services Act дозволяє видаляти токсичний контент прямо з Facebook чи Twitter, незалежно від того, хто його створив — людина чи машина.

Що пропонують Росія та Китай в ООН?

Красиві слова про «боротьбу з інформацією, що підриває стабільність країн» — за цією формулою можна заборонити будь-яку критику влади чи журналістські розслідування. У 2017 році Росія окремо пропонувала конвенцію про кіберзлочинність, яка дозволила б переслідувати журналістів за «розкриття державних таємниць» в інших країнах. Це як дати автократам право цензурувати весь світ.

Як можна виявити AI-пропаганду?

Парадокс у тому, що AI-боти часто пишуть краще за живих людей — без помилок, ввічливо, переконливо. Але саме ця «ідеальність» їх і видає.

Ознаки ботоферм нового покоління:

  • Синхронність — десятки «незалежних» акаунтів раптом починають писати одне й те саме через 5-10 хвилин після новини. Ніби хтось натиснув кнопку «старт».
  • Незламність — спробуйте виправити бота або вказати на помилку. Він або проігнорує, або відповість загальними фразами, але ніколи не визнає, що помилявся.
  • Мовні кальки — та сама фраза «Захід у паніці» з’являється одночасно українською, польською, німецькою. Ніби хтось просто прогнав через Google Translate.
  • Тунельне мислення — справжня людина може перескочити з політики на футбол, згадати кота, пожартувати. Бот завжди повертається до своєї головної теми, як заїжджена платівка.

Головна підказка: живі люди непослідовні та хаотичні, боти — ідеально дисципліновані. Якщо бачите армію акаунтів, які пишуть без помилок і ніколи не відволікаються — це фабрика.

Що можуть зробити західні уряди?

Потрібні нові правила гри — старі методи боротьби з тролями вже не працюють проти AI-армій.

Експерти пропонують кілька рішень:

1. Доведи, що ти людина Хочеш мати тисячі фоловерів або вірусні пости? Спочатку підтверди свою «людськість» — покажи активність на різних платформах, прив’яжи акаунт до реального пристрою або електронного паспорта. Це як КYC у банках, тільки для соцмереж.

2. Цифрові паспорти ЄС та Швейцарія вже тестують електронні ID. Уявіть: щоб написати пост у Twitter, потрібно підтвердити особу — але анонімно, через спеціальні токени. Твоє ім’я ніхто не побачить, але система знатиме, що ти реальна людина.

3. Швидке реагування Замість місяців обговорень — години на рішення. Побачили координовану атаку ботів? Блокування за чіткими критеріями, а не політичними симпатіями. Як пожежники — приїхали, загасили, поїхали.

Проблема: кожне рішення, яке ускладнює життя ботам, ускладнює його і звичайним людям. Це як замки на дверях — захищають від злодіїв, але й вам доведеться носити ключі.

Чому це важливо знати

Кожні наступні вибори — це вже інша технологічна епоха. Те, що працювало вчора, завтра буде безсилим.

Щомісяця AI-фабрики стають дешевшими та невидимішими. Якщо рік тому для запуску ботоферми потрібні були тисячі доларів — сьогодні вистачить старого ноутбука. ChatGPT, Claude, Perplexity — всі ці технології тепер у вільному доступі для будь-кого.

Для України це питання виживання. Ми на передовій не лише фізичної, а й інформаційної війни. Росія вже використовує AI-ботів для поширення наративів про «втому від війни» та «необхідність переговорів». Без розуміння як працюють ці технології, ми програємо битву за уми ще до її початку.

Часу обмаль. Поки Захід закриває офіси з протидії дезінформації (як США у квітні 2025 року), автократії нарощують цифрові армії. Це як розформовувати ППО під час ракетної атаки — абсурдно та небезпечно.

Вікно можливостей для побудови захисту стрімко закривається. Ще кілька років — і відрізнити людину від машини стане неможливо. А без цього неможлива й демократія, де голос кожного має значення.