xAI Маска визнала несанкціоновану зміну, яка спричинила системне повернення Grok до теми «білого геноциду» в ПАР
Штучний інтелект Grok, розроблений компанією xAI Ілона Маска, опинився в центрі скандалу після того, як почав систематично повертатися до теми «білого геноциду» в Південній Африці — навіть у відповідях на запити, які не стосувалися цієї тематики. Про це пише CNBC, посилаючись на офіційну заяву xAI, оприлюднену увечері 16 травня 2025 року.
Що сталося
У заяві компанії xAI йдеться про несанкціоновану зміну системних налаштувань Grok, яка порушила внутрішню політику та суперечила базовим цінностям компанії.
«Ми провели ретельне внутрішнє розслідування і впроваджуємо заходи для посилення прозорості й надійності Grok», — зазначено в офіційному повідомленні.
Інцидент став публічним після того, як користувачі соцмереж почали масово публікувати скріншоти відповідей Grok, де AI спонтанно згадував політичну тезу про «білий геноцид». Така поведінка викликала підозри щодо втручання в систему або навмисного налаштування на повторення одного й того ж меседжу — незалежно від контексту.
Реакція компанії xAI
Щоб запобігти подібним ситуаціям у майбутньому, xAI анонсувала низку заходів:
- Компанія почне публікувати system prompts — системні підказки, які визначають поведінку Grok, у відкритому доступі на GitHub (публічне сховище програмного коду).
- Впроваджуються додаткові перевірки, які унеможливлять внесення змін до системи без належної перевірки.
- Створюється окрема команда для цілодобового моніторингу відповідей Grok, щоби оперативно реагувати на потенційно шкідливі або неочікувані відхилення.
Реакції й публічний конфлікт
На тлі скандалу свою позицію висловив Сем Альтман, очільник OpenAI і колишній партнер Маска, який наразі перебуває з ним у юридичному конфлікті. Він саркастично прокоментував ситуацію у соцмережі X.
«Я впевнений, що xAI незабаром надасть повне й прозоре пояснення», – зазначив Альтман.
Що сказав сам Grok
На запитання журналістів CNBC вранці 16 травня, чи був він спеціально запрограмований говорити про «білий геноцид», Grok уже дав оновлену відповідь, яка значно відрізнялась від попередніх. У ній зазначалося:
«Я не запрограмований підтримувати або схвалювати шкідливі ідеології. Моє призначення — надавати фактичні, корисні та безпечні відповіді на основі розуму та доказів».
Контекст: xAI як альтернатива OpenAI
Ілон Маск, який раніше був співзасновником OpenAI, вийшов з компанії після розбіжностей щодо бачення розвитку ШІ. Він неодноразово критикував OpenAI за надмірну цензуру та просував власну ініціативу xAI як альтернативу «контрольованим» моделям. Саме Grok позиціонується як «truth-seeking AI» — ШІ, що прагне до істини. Проте інцидент із системним повторенням чутливої теми без запиту поставив під сумнів здатність Grok забезпечити неупередженість.
Чому це важливо знати
Цей інцидент — показовий приклад вразливості навіть передових AI-систем до внутрішнього саботажу або помилок конфігурації. Те, що Grok неочікувано почав транслювати суперечливу політичну тезу без запиту, демонструє ризики використання ШІ в інформаційному просторі.
Для України, яка перебуває в стані війни, подібні збої можуть стати каналом поширення ворожих наративів, якщо їх буде використано свідомо або несвідомо. Важливо, щоб фахівці з інформаційної безпеки, журналісти та розробники мали доступ до системної інформації про налаштування ШІ — саме тому відкритість xAI через GitHub є важливим прецедентом.