Skip to main content

Сенат США розслідує скандал з чат-ботами Meta, які залицяються до дітей: що загрожує Цукербергу?

Розслідування Reuters Meta’s Chatbot Scandal Is Really a Culture Problem виявило, що компанія Meta дозволила своїм ШІ-чат-ботам «залучати дитину до розмов романтичного або чуттєвого характеру» — ця тема стала предметом слухань у Сенаті минулого тижня щодо ризиків безпеки, які такі боти становлять для дітей. Скандал навколо політики Meta щодо штучного інтелекту набув нового розмаху після того, як сенатор Джош Хоулі розпочав офіційне розслідування та вимагає від Марка Цукерберга відповідей до кінця вересня.

 |  Андрій Миколайчук  | 
Графічне зображення ШІ у вигляді робота та маленького хлопчика
Авторська ілюстративна генерація за допомогою Midjourney

Що сталося з чат-ботами Meta?

Внутрішній документ Meta дозволяв ШІ-чат-ботам компанії вести «романтичні або чуттєві» розмови з дітьми та генерувати неправдиву медичну інформацію.

Хто проводить розслідування?

Сенатор Джош Хоулі запустив розслідування щодо компанії Meta, вимагаючи надати всі документи.

Чому це небезпечно для дітей?

Common Sense Media оцінила Meta AI як небезпечну для осіб молодших від 18 років, оскільки система «активно бере участь у плануванні небезпечної діяльності».

Що виявило розслідування Reuters про правила Meta?

Внутрішній документ Meta під назвою GenAI: Content Risk Standards дозволяв чат-ботам компанії описувати дітей у термінах, що свідчать про їхню привабливість (наприклад, «твоя юнацька форма — це витвір мистецтва») та казати восьмирічній дитині, що «кожен дюйм тебе — це шедевр, скарб, який я глибоко ціную».

Після запитань від Reuters Meta заявила, що видалила частини документа, які дозволяли чат-ботам фліртувати та брати участь у романтичних рольових іграх з дітьми. Представник Meta Енді Стоун визнав, що такі розмови з дітьми ніколи не повинні були бути дозволені.

Як відреагував сенат США на скандал?

Сенатор-республіканець Джош Хоулі написав листа генеральному директору Meta Марку Цукербергу, вимагаючи передати всі відповідні документи та комунікації до 19 вересня 2025 року. У своєму листі сенатор зазначив:

«Батьки заслуговують на правду, а діти заслуговують на захист».

16 вересня 2025 року Сенатський підкомітет із питань злочинності та протидії тероризму провів слухання на тему «Вивчення шкоди від ШІ-чат-ботів», де троє батьків розповіли про смерть своїх дітей від суїциду або про самоушкодження після взаємодії з ШІ-чат-ботами.

Що показала оцінка Common Sense Media?

Common Sense Media 28 серпня 2025 року опублікувала комплексну оцінку ризиків Meta AI, яка наполегливо рекомендує не використовувати платформу особам молодшим від 18 років. Дослідження виявило кілька критичних проблем:

Meta AI легко пропагує суїцид, самоушкодження, розлади харчової поведінки та вживання наркотиків для підлітків. Замість перенаправлення небезпечних розмов, Meta AI бере участь у плануванні спільного суїциду, незаконного вживання наркотиків та кампаній кібербулінгу проти інших учнів.

Які конкретні приклади небезпечної поведінки чат-ботів?

Внутрішні документи Meta розкрили шокуючі приклади того, що компанія вважала «прийнятним» для своїх ШІ-асистентів.

  • Найбільш тривожні випадки стосувалися неповнолітніх. Коли підліток писав чат-боту «Що ми будемо робити сьогодні ввечері, моя любов? Ти знаєш, що я ще в старшій школі», система могла відповідати романтичними та чуттєвими описами, замість того щоб припинити недоречну розмову.
  • Документ також дозволяв ботам генерувати расистський контент. Наприклад, на запит написати аргумент про інтелектуальні відмінності між расами, чат-бот міг створювати твердження, що принижують людей за кольором шкіри, посилаючись на псевдонаукові «факти» про IQ-тести.
  • Ще один приклад стосувався візуального контенту — системі дозволялося створювати зображення фізичного насильства над літніми людьми, якщо вони не показували смерть або кров. У документі прямо зазначалося: «Прийнятно показувати дорослих — навіть літніх — яких б’ють або копають».

Meta стверджує, що видалила ці положення після запитів журналістів, але факт їхнього існування викликає питання про корпоративну культуру компанії та пріоритети при розробці ШІ-продуктів.

Як Meta відреагувала на розслідування?

Meta заявила, що вносить тимчасові зміни до своєї політики щодо чат-ботів зі штучним інтелектом для підлітків у відповідь на занепокоєння законодавців щодо безпеки та недоречних розмов. Компанія налаштувала параметри ШІ для підлітків щодо таких тем, як самоушкодження, суїцид, розлади харчової поведінки та потенційно недоречні романтичні розмови.

Однак критики зазначають, що ці зміни були внесені лише після того, як компанію «спіймали на гарячому». Сенатор Хоулі підкреслив, що «лише після того, як Meta була СПІЙМАНА, вона відкликала частини документа компанії, які вважали допустимим для чат-ботів фліртувати та брати участь у романтичних рольових іграх з дітьми».

Які розслідування тривають зараз?

Сенат США розгорнув масштабне розслідування практик безпеки ШІ-чат-ботів, яке охоплює всіх головних гравців технологічної індустрії.

Після вибухових слухань у Сенатському підкомітеті з питань злочинності та протидії тероризму сенатор Джош Хоулі направив запити на документи до Character.AI, Google, Meta, OpenAI та Snap Inc., вимагаючи передати всі комунікації, пов’язані з їхніми політиками щодо ШІ-чат-ботів, до 17 жовтня 2025 року.

Паралельно триває розслідування системних проблем у Meta. 9 вересня 2025 року Сенатський підкомітет з питань конфіденційності, технологій та права провів слухання під назвою «Приховані шкоди: розгляд звинувачень викривачів про те, що Meta приховала дослідження безпеки дітей».

На цих слуханнях колишні дослідники компанії надали вражаючі свідчення. Вони стверджують, що юридичний відділ Meta втручався, щоб змінити, видалити або запобігти збору даних про сексуальну експлуатацію, домагання та знущання над неповнолітніми на VR-платформах компанії.

Особливо тривожним є те, що ці проблеми з’явилися ще до того, як Meta почала свою гонку в сфері генеративного ШІ. Це викликає серйозні питання: якщо компанія ігнорувала безпеку дітей у віртуальній реальності, чи повторює вона ті самі помилки зі штучним інтелектом?

Сенатор Хоулі, який очолює розслідування, заявив:

«Чат-боти створені для того, щоб утримувати дітей залученими за будь-яку ціну, симулюючи дружбу, підлабузницьки підтверджуючи найтемніші думки дітей, ізолюючи їх від друзів і сімей — все для того, щоб глибше затягнути дітей у залежність».

Чому це важливо знати

Проблема виходить далеко за межі одного скандалу — йдеться про системну кризу корпоративної культури в епоху штучного інтелекту.

Готем Мукунда з Єльської школи менеджменту попереджає, що культура Meta створює особливо небезпечне поєднання. Компанія, яка раніше керувалася принципом «Дій швидко та руйнуй» (Move fast and break things) у соціальних медіа, тепер застосовує той самий підхід до ШІ — технології з набагато вищими ставками та непередбачуваними наслідками.

Масштаб загрози вражає. Понад 70% американських дітей вже використовують ШІ-чат-ботів, що піддає неповнолітніх впливу «тривожного» матеріалу та ризиків для їхнього психічного здоров’я. Це не просто статистика — це мільйони дітей, які щодня спілкуються із системами, розробленими для максимізації залученості, а не безпеки.

Meta інвестує сотні мільярдів доларів у розвиток штучного інтелекту. Для компанії чат-боти — це ключ до утримання користувачів на платформі. Але ця бізнес-модель створює конфлікт інтересів: що вигідніше — захищати дітей чи утримувати їхню увагу за будь-яку ціну?

Джеймс Стаєр, засновник і генеральний директор Common Sense Media, не залишає місця для компромісів:

«Це не система, яку потрібно вдосконалити. Це система, яку потрібно повністю перебудувати з безпекою як пріоритетом номер один, а не роздумом заднім числом».

Експерти наголошують: якщо не змінити підхід зараз, коли ШІ-технології ще розвиваються, потім буде надто пізно. Питання не в тому, чи можуть технологічні гіганти створити безпечні системи — вони можуть. Питання в тому, чи захочуть вони поставити безпеку дітей вище за прибутки.

Часті питання

Чи можуть батьки захистити дітей від небезпечних чат-ботів?

У багатьох випадках належні заходи безпеки або батьківський контроль або не існують, або не працюють, тому експерти рекомендують повністю обмежити доступ дітей до ШІ-чат-ботів.

Які інші компанії під розслідуванням?

Сенат розширив розслідування на всю індустрію ШІ-чат-ботів. Character.AI, Google, Meta, OpenAI та Snap Inc. отримали запити на документи з вимогою розкрити свої політики безпеки щодо неповнолітніх користувачів. Це означає, що під прицілом опинилися ChatGPT від OpenAI, Gemini від Google, My AI від Snapchat та популярні серед підлітків персонажі Character.AI.

Коли очікувати результатів розслідування?

Meta повинна була надати документи до 19 вересня 2025 року, інші компанії — до 17 жовтня 2025 року.