WormGPT і Nytheon AI: як хакери створюють свої чат-боти без обмежень
Хакери дедалі частіше використовують шкідливі ШІ, як-от WormGPT і Nytheon AI, які не мають етичних обмежень. Як це змінює кіберзагрози?
WormGPT хакери: нове покоління шкідливих ШІ без етичних меж
З моменту появи ChatGPT та масового поширення генеративного штучного інтелекту повсякденна робота мільйонів людей зазнала кардинальних змін. Проте, як повідомляє L’Express, ці самі технології перетворилися на потужний інструмент у руках кіберзлочинців, які стрімко професіоналізуються й дедалі більше нагадують справжні корпорації — з відділами кадрів, системами преміювання, оплачуваними лікарняними та, що найголовніше, власними модифікованими чат-ботами без жодних етичних обмежень.
Від стартапів до кіберкорпорацій
Стандартні моделі штучного інтелекту, такі як ChatGPT чи Gemini, оснащені вбудованими механізмами безпеки, які блокують генерацію небезпечного, неетичного або протизаконного контенту. Однак у тіньовому сегменті інтернету з’явилися так звані «вивільнені» (débridées) версії — модифіковані ШІ-системи, створені спеціально для потреб кіберзлочинного середовища. Найвідомішою серед них стала WormGPT, яка вперше з’явилася у червні 2023 року на одному з найбільших хакерських форумів даркнету.
WormGPT: зламаний аналог ChatGPT
За словами провідного дослідника кібербезпеки Віталія Симоновича (Vitaly Simonovich) з компанії Cato Networks, WormGPT була побудована на базі відкритої мовної моделі (LLM) та навмисно позбавлена будь-яких етичних бар’єрів і обмежень. Цей інструмент надавав кіберзлочинцям можливість з легкістю створювати високоякісні фішингові листи, розробляти шахрайські вебсайти та генерувати складні сценарії соціальної інженерії.
Першою цю загрозу виявила компанія SlashNext, експерти якої попередили: «WormGPT здатен писати дуже переконливі фішингові листи, які виглядають як справжні накази від керівників компаній». Дослідники підкреслили, що такі листи практично неможливо відрізнити від автентичних через високу якість тексту та відсутність типових ознак машинного перекладу чи граматичних помилок.
«WormGPT — це ChatGPT без етичних обмежень», — підсумували фахівці SlashNext. Згідно з їхньою детальною оцінкою, протягом перших місяців після появи цього інструменту кількість фішингових атак зросла на вражаючі 1265%. Попри комерційний успіх та високий попит серед кіберзлочинців, проєкт було раптово закрито вже за два місяці після запуску — ймовірно, через підвищену увагу правоохоронних органів. Однак сам бренд WormGPT не зник — він став своєрідним знаком якості в кримінальному середовищі та почав активно розростатися через численні клони та модифікації.
Нове покоління WormGPT: Mistral, Grok і Nytheon AI
Нещодавні дослідження експертів Cato Networks зафіксували появу цілої хвилі нових шкідливих ШІ-систем, створених на основі легально доступних відкритих мовних моделей. Серед них особливо виділяються модифіковані версії LLM від французької компанії Mistral та chatbot Grok, розроблений xAI — амбітним стартапом Ілона Маска.
Шкідливий ШІ як бізнес
Модель на базі Mistral активно рекламується на найбільших хакерських форумах і пропонується за ціною 100 доларів на місяць. Ця версія включає розширені можливості для генерації шкідливого коду, створення експлойтів та розробки складних схем соціальної інженерії. Ще одна версія, що ґрунтується на API Grok, була ретельно модифікована для обходу всіх вбудованих обмежень та фільтрів безпеки.
Попри те, що доступ до офіційного API Grok є платним і вимагає легітимної підписки, не можна стверджувати, що компанія xAI прямо отримує прибуток від кримінального використання своєї технології — найімовірніше, хакери масово використовують вкрадені облікові записи або платіжні дані для оплати доступу.
Абонементи на такі шкідливі чат-боти варіюються від базових $8 до преміальних $18 на місяць, причому вартість залежить від функціональності та рівня «зняття обмежень». Як красномовно йдеться в одному з рекламних постів на популярному даркнет-форумі:
«Жодних меж, жодних правил, жодної відповідальності — повна свобода для ваших найсміливіших ідей».
Nytheon AI: повноцінна платформа для кіберзлочинців
Окрім окремих модифікованих ботів, на хакерських платформах почали з’являтися цілі ШІ-екосистеми з комплексним функціоналом. Найвідомішою та найпотужнішою з них стала Nytheon AI — справжній швейцарський ніж для кіберзлочинців. Ця платформа пропонує вражаючий набір інструментів: від миттєвого перекладу документів десятками мов до генерації складного шкідливого коду, від розпізнавання та аналізу зображень до створення deepfake-контенту.
«Це дуже потужна екосистема, яка фактично надає хакерам повноцінний enterprise-сервіс з усіма необхідними інструментами в одному місці», — пояснює Симонович.
На форумах даркнету активно розвивається нова бізнес-модель AI-as-a-Service (штучний інтелект як послуга), яка дозволяє будь-кому, навіть без технічних знань, купити доступ до небезпечного штучного інтелекту без будь-яких етичних обмежень чи контролю.
Проблема відкритого коду
Чому ці моделі не можна зупинити?
Фундаментальна причина, через яку такі інструменти поширюються з вражаючою швидкістю, криється в самій природі open source — концепції відкритого коду та відкритих моделей. За влучним висловом Бернара Монтеля (Bernard Montel), технічного директора компанії Tenable,
«open source неможливо повністю контролювати — це як мови програмування, які можуть використовуватися як для створення корисних програм, так і для написання вірусів».
Деякі компанії, зокрема Mistral, намагаються знайти баланс між відкритістю та безпекою, поширюючи лише частину даних про модель — так звані open weights (відкриті ваги). Це дозволяє дослідникам вивчати та вдосконалювати моделі, але теоретично ускладнює зловживання ними. Проте практика показує, що навіть такі обмежені заходи не зупиняють досвідчених зловмисників.
Заклики до жорсткого обмеження або заборони відкритих моделей викликають палкі дебати в технологічній спільноті. Прихильники відкритості наголошують, що саме вона сприяє науковим відкриттям, підвищує прозорість алгоритмів, дозволяє незалежним фахівцям знаходити критичні помилки та колективно вдосконалювати моделі на благо всього суспільства.
Рішення: цифрові фільтри і філігранні підписи?
Одним із найперспективніших рішень експерти називають впровадження криптографічних «підписів» або «водяних знаків» у відповіді чат-ботів. За результатами масштабного дослідження, опублікованого у березні 2025 року консорціумом провідних університетів, впровадження невидимих цифрових фільтрів і водяних знаків дозволило б надійно ідентифікувати джерело повідомлень у разі їх злочинного використання.
Така технологія працювала б подібно до серійних номерів на банкнотах — кожна згенерована відповідь містила б унікальний, практично невидимий для користувача ідентифікатор, який дозволив би простежити її походження. Проте реалізація цього амбітного проєкту повністю залежить від доброї волі компаній-розробників та їхньої готовності співпрацювати з правоохоронними органами.
Чому це важливо знати
Стрімкий розвиток шкідливих ІІ-систем, таких як WormGPT чи Nytheon AI, створює принципово нові, раніше немислимі загрози для кібербезпеки — як в Україні, так і в усьому цивілізованому світі. В умовах повномасштабної війни проти російської агресії цифрова безпека української критичної інфраструктури, оборонних підприємств та державних установ набуває життєво важливого значення.
Ворог уже неодноразово демонстрував готовність використовувати найсучасніші методи соціальної інженерії, масштабні фішингові кампанії та складні кібератаки для дестабілізації тилу, викрадення чутливої інформації та підриву довіри до державних інституцій.
Поява доступних, дешевих та надзвичайно ефективних шкідливих інструментів на базі штучного інтелекту може кардинально розширити можливості не лише професійних кіберзлочинців, але й ворожих спецслужб. Особливу загрозу становлять потенційні атаки на державні структури, військові об’єкти, енергетичну інфраструктуру, волонтерські платформи та системи збору коштів для армії.
Розробка ефективних механізмів контролю за відкритими моделями ШІ, впровадження систем цифрових підписів, підвищення обізнаності про нові типи загроз та навчання персоналу — все це має стати абсолютним пріоритетом для українських фахівців із кіберзахисту та національної безпеки в цілому.