Експерти: поради з виявлення AI-відео більше не працюють
Технології штучного інтелекту досягли рівня, коли навіть фахівці не можуть відрізнити реальні відео від згенерованих, пише The Washington Post. Приклад — вірусний ролик із «кроликами на батуті», який виявився повністю створеним за допомогою AI.

Відео з нібито домашньою камерою, що зафіксувала кроликів, які стрибають на батуті, набрало понад 230 млн переглядів у TikTok. Згодом виявилося, що це перший експеримент 22-річного маркетолога з генератором відео Google Veo 3. Автор навмисно створив сюжет і жіночий акаунт, щоб ролик здавався справжнім і викликав суперечки в коментарях.
«Десять хвилин після публікації мій телефон почав вибухати повідомленнями… це були лише лайки, лайки, лайки», — розповів автор.
Спершу TikTok не позначив ролик як створений AI, але після розслідування журналістів і компанії GetReal він отримав відповідну мітку. Система Google SynthID, яка вставляє у контент невидимий машинний код, теж ідентифікувала його як AI-генерацію (цей інструмент поки недоступний для користувачів).
Бен Колман, CEO Reality Defender, визнає, що навіть PhD-фахівці його команди не можуть «на око» визначити AI-відео:
«Якщо вони не можуть, то як це зроблять мої батьки чи діти?»
Генрі Адждер, консультант з питань AI, закликає відмовитися від застарілих порад на кшталт пошуку шести пальців чи розмитого фону:
«Дні, коли казали: “Ось, на що треба дивитися”, закінчилися. Це вже навіть шкідливо».
Емманюель Саліба з GetReal попереджає, що веселі «фейки» — лише передвісник масових маніпуляцій, коли штучний інтелект зможе створювати фальшиві відео людей і підривати довіру до справжніх доказів.
Фахівці радять:
- Визнати обмеження. Неможливо очікувати від користувачів, що вони будуть «цифровими Шерлоками».
- Не питати чат-ботів, чи відео справжнє. Вони не призначені для достовірної перевірки.
- Вимагати обов’язкової позначки AI-контенту. Це має бути не добра воля платформ, а законодавча норма.
TikTok заявив, що вимагає від користувачів маркувати реалістичний AI-контент та інвестує у технології виявлення. Експерти наголошують: аудиторія має право знати, що є штучною генерацією, а що — ні.
Чому це важливо знати
Для України, яка веде війну з Росією, загроза AI-дезінформації особливо гостра. Реалістичні фейки можуть бути використані для дискредитації керівництва, деморалізації суспільства чи маніпуляції міжнародною підтримкою. У світі, де навіть експерти не можуть «на око» розпізнати AI-контент, ключовим стає впровадження єдиних стандартів маркування та перевірки, щоб захистити інформаційний простір.

Медіаменеджер і автор-фрілансер з 1991 року. Займається креативним продакшном та розвитком медіа.
Усі статті автора →









