Skip to main content

Phys.org: Як генеративний ШІ змінив державну пропаганду — кейс російського проєкту DCWeekly

Дослідження PNAS Nexus доводить, що генеративний ШІ вже використовується в реальних пропагандистських операціях

Штучний інтелект як прискорювач дезінформації: докази з реальної операції – Phys.org


У квітні 2025 року в журналі PNAS Nexus було опубліковано дослідження, яке вперше дає емпіричні докази впливу генеративного ШІ на реальну державну кампанію дезінформації. Мова йде про DCWeekly.org — фейковий новинний сайт, викритий BBC та Університетом Клемсона в грудні 2023 року як інструмент російської пропаганди.

Після інтеграції ШІ у вересні 2023 року цей сайт подвоїв кількість публікацій, розширив тематичне охоплення і зберіг високий рівень переконливості серед американських читачів.


Що сталося: коли DCWeekly перейшов на ШІ

До 20 вересня 2023 року DCWeekly просто копіював контент з правих джерел на кшталт The Gateway Pundit або RT. Але після цієї дати тексти стали унікальними, хоч і базувались на тих самих сюжетах — їх переписували з використанням OpenAI GPT-3, із помітними ознаками штучного переформулювання та іноді навіть з витоками промптів.

Наприклад: «Будь ласка, зауважте: у статті критично оцінюється позиція США щодо війни в Україні і вжито цинічного тону стосовно НАТО та американських політиків».


Зміна обсягів і тем

  • Обсяг публікацій виріс у 2,4 раза порівняно з активним періодом до використання ШІ.
  • Тематика стала значно ширшою — від України й Ізраїлю до внутрішніх проблем США (злочинність, зброя, податки).
  • Високий рівень диверсифікації тем підтверджено через LDA-аналіз (Latent Dirichlet Allocation): середнє значення ентропії виросло з 0.29 до 0.45 після впровадження ШІ.

Як ШІ змінює тематику: зсув до «гарячих» і конфліктних тем

Аналіз за допомогою моделі natural language inference (NLI) показав:

ТемаСередній бал (до ШІ)Середній бал (після ШІ)
Зброя0.290.69
Злочинність0.610.83
Внутрішні новини США0.570.39
Міжнародні новини0.700.83

Після переходу на ШІ сайт зменшив фокус на внутрішніх новинах США, натомість різко підвищив акценти на зброї, злочинності та міжнародних конфліктах — особливо Україна та Ізраїль. При цьому зміна фокусу не пояснюється винятково конфліктами — тобто тематика зброї/злочинів використовувалась автономно як інструмент емоційного впливу.


Переконливість збереглась

Експеримент за участі 880 американців (платформа Prolific, дослідження затверджено IRB) показав:

  • AI-генеровані статті були настільки ж переконливі, як і ті, що копіювались вручну.
  • Учасники не помітили зниження достовірності сайту після переходу на ШІ.
  • Інтенція поділитися матеріалом також не змінилась.

Ці дані підтверджують попередні лабораторні дослідження, але вперше засвідчують практичну ефективність ШІ-пропаганди в реальній кампанії.


Технічний інструментарій, який використовувався:

  • GPT-3 для генерації тексту.
  • AI-based content scoring: модель обирала «показові» сюжети з Fox News, RT та інших — на основі оцінок типу: «Оцінка 75: стаття важлива, бо висвітлює зловживання в IRS і підриває довіру до урядових установ США».
  • Ретрансляція меседжів через інші фейкові сайти, створені за аналогічним шаблоном після викриття DCWeekly.

Чому це важливо знати

Це дослідження є переломним: воно вперше документує, як реальна державна пропаганда інтегрує генеративний ШІ не для експериментів, а для масштабування впливу:

  • Продуктивність зростає, витрати знижуються.
  • Формально правдоподібні наративи вкидаються у цифрове середовище з високою переконливістю.
  • Суспільства демократій часто не встигають розпізнати джерело або ціль таких меседжів.

З огляду на це, дослідники закликають до термінових дій, зокрема:

  • обмеження використання LLM у відкритому доступі для кампаній дезінформації;
  • розробки систем розпізнавання ШІ-контенту;
  • підготовки суспільства до епохи AI-пропаганди.

Поділитися статтею