Phys.org: Як генеративний ШІ змінив державну пропаганду — кейс російського проєкту DCWeekly

Штучний інтелект як прискорювач дезінформації: докази з реальної операції – Phys.org
У квітні 2025 року в журналі PNAS Nexus було опубліковано дослідження, яке вперше дає емпіричні докази впливу генеративного ШІ на реальну державну кампанію дезінформації. Мова йде про DCWeekly.org — фейковий новинний сайт, викритий BBC та Університетом Клемсона в грудні 2023 року як інструмент російської пропаганди.
Після інтеграції ШІ у вересні 2023 року цей сайт подвоїв кількість публікацій, розширив тематичне охоплення і зберіг високий рівень переконливості серед американських читачів.
Що сталося: коли DCWeekly перейшов на ШІ
До 20 вересня 2023 року DCWeekly просто копіював контент з правих джерел на кшталт The Gateway Pundit або RT. Але після цієї дати тексти стали унікальними, хоч і базувались на тих самих сюжетах — їх переписували з використанням OpenAI GPT-3, із помітними ознаками штучного переформулювання та іноді навіть з витоками промптів.
Наприклад: «Будь ласка, зауважте: у статті критично оцінюється позиція США щодо війни в Україні і вжито цинічного тону стосовно НАТО та американських політиків».
Зміна обсягів і тем
- Обсяг публікацій виріс у 2,4 раза порівняно з активним періодом до використання ШІ.
- Тематика стала значно ширшою — від України й Ізраїлю до внутрішніх проблем США (злочинність, зброя, податки).
- Високий рівень диверсифікації тем підтверджено через LDA-аналіз (Latent Dirichlet Allocation): середнє значення ентропії виросло з 0.29 до 0.45 після впровадження ШІ.
Як ШІ змінює тематику: зсув до «гарячих» і конфліктних тем
Аналіз за допомогою моделі natural language inference (NLI) показав:
Тема | Середній бал (до ШІ) | Середній бал (після ШІ) |
---|---|---|
Зброя | 0.29 | 0.69 |
Злочинність | 0.61 | 0.83 |
Внутрішні новини США | 0.57 | 0.39 |
Міжнародні новини | 0.70 | 0.83 |
Після переходу на ШІ сайт зменшив фокус на внутрішніх новинах США, натомість різко підвищив акценти на зброї, злочинності та міжнародних конфліктах — особливо Україна та Ізраїль. При цьому зміна фокусу не пояснюється винятково конфліктами — тобто тематика зброї/злочинів використовувалась автономно як інструмент емоційного впливу.
Переконливість збереглась
Експеримент за участі 880 американців (платформа Prolific, дослідження затверджено IRB) показав:
- AI-генеровані статті були настільки ж переконливі, як і ті, що копіювались вручну.
- Учасники не помітили зниження достовірності сайту після переходу на ШІ.
- Інтенція поділитися матеріалом також не змінилась.
Ці дані підтверджують попередні лабораторні дослідження, але вперше засвідчують практичну ефективність ШІ-пропаганди в реальній кампанії.
Технічний інструментарій, який використовувався:
- GPT-3 для генерації тексту.
- AI-based content scoring: модель обирала «показові» сюжети з Fox News, RT та інших — на основі оцінок типу: «Оцінка 75: стаття важлива, бо висвітлює зловживання в IRS і підриває довіру до урядових установ США».
- Ретрансляція меседжів через інші фейкові сайти, створені за аналогічним шаблоном після викриття DCWeekly.
Чому це важливо знати
Це дослідження є переломним: воно вперше документує, як реальна державна пропаганда інтегрує генеративний ШІ не для експериментів, а для масштабування впливу:
- Продуктивність зростає, витрати знижуються.
- Формально правдоподібні наративи вкидаються у цифрове середовище з високою переконливістю.
- Суспільства демократій часто не встигають розпізнати джерело або ціль таких меседжів.
З огляду на це, дослідники закликають до термінових дій, зокрема:
- обмеження використання LLM у відкритому доступі для кампаній дезінформації;
- розробки систем розпізнавання ШІ-контенту;
- підготовки суспільства до епохи AI-пропаганди.