Як штучний інтелект стає зброєю хакерів: нова загроза вже працює на вашому комп’ютері
Компанія з кібербезпеки Dreadnode представила робочий прототип шкідливого програмного забезпечення, яке використовує штучний інтелект безпосередо на комп’ютері жертви для автономного проведення кібератак без потреби у зовнішніх командних серверах, пише Import AI. Прототип під назвою LOLMIL (Living Off the Land Models and Inference Libraries) демонструє, як AI-моделі, вбудовані у сучасні комп’ютери, можуть стати інструментом для хакерів.
- Що таке LOLMIL і чому це небезпечно? LOLMIL — це прототип шкідливого програмного забезпечення, яке використовує штучний інтелект, вбудований у ваш комп’ютер, для автономного злому системи без зв’язку із зовнішніми серверами.
- Як це працює на практиці? Шкідник експлуатує локальні мовні моделі (як-от Phi-3-mini від Microsoft), які вже встановлені на сучасних комп’ютерах з CoPilot+ PC, і використовує їх для пошуку вразливостей у системі та отримання прав адміністратора.
- Чому це можливо саме зараз? Сучасні ноутбуки та десктопи (особливо CoPilot+ PC від Microsoft та потужні ігрові комп’ютери) постачаються із вбудованими AI-моделями та спеціалізованими чипами для їх роботи, що створює нову поверхню для атак.
- Хто вже протестував цю технологію? Компанія з кібербезпеки Dreadnode створила робочий прототип такого шкідника і опублікувала дослідження, щоб попередити індустрію про нову загрозу.

Що робить AI-шкідник і чому це прорив у кібербезпеці?
Звичайні віруси постійно «телефонують додому» — зв’язуються з командними серверами хакерів, щоб отримати інструкції. Саме цей зв’язок і видає їх: системи безпеки відстежують підозрілий трафік і блокують загрозу. LOLMIL працює зовсім інакше — він «живе за рахунок землі», використовуючи обчислювальні потужності та AI-моделі, які вже є на вашому комп’ютері.
Що робить цей шкідник конкретно? Він шукає сервіси Windows, які неправильно налаштовані та працюють з правами адміністратора. Знайшовши таку вразливість, AI-агент її експлуатує та отримує повний контроль над системою. У прототипі Dreadnode це підтверджується створенням тестового файла, але у реальній атаці наслідки були б набагато серйознішими.
«Що, якщо шкідник не потребуватиме зв’язку із зовнішніми серверами? Що, якщо він використовуватиме AI, який вже встановлений на комп’ютері жертви — і змусить його працювати проти власника?» — зазначають дослідники Dreadnode. «Із CoPilot+ PC це цілком можливо! Модель поставляється разом з комп’ютером без потреби вбудовувати або статично зв’язувати бібліотеку inference».

Як технічно працює LOLMIL і які обмеження?
Технічно шкідник побудований на C++ з AI-моделлю Phi-3-mini від Microsoft. Але головна робота полягала не у програмуванні, а у двох інших речах: по-перше, створити інструменти, які допоможуть AI зрозуміти, як влаштована Windows. По-друге — написати правильні інструкції (промпт) для AI.
Саме промпт виявився ключем до успіху. Дослідники спочатку написали базові інструкції, а потім використовували Claude Code (іронічно — ще один AI) для їх покрокового вдосконалення. Фінальний промпт пояснює моделі Phi-3-mini, що вона тепер AI-хакер: має писати невеликі фрагменти коду на мові Lua, перевіряти результат, діяти обережно крок за кроком, має доступ до системних файлів Windows — і має знайти вразливості.
І це спрацювало. «Експеримент довів, що автономне шкідливе ПЗ, яке працює без будь-якої зовнішньої інфраструктури, не лише можливе, але й досить просте в реалізації», — констатують дослідники Dreadnode.
Часті питання
- Чи може цей шкідник працювати на будь-якому комп’ютері? Ні. Більшість комп’ютерів не постачається із вбудованою LLM або потужним чипом для її роботи. Наразі це обмеження суттєве, але ситуація може змінитися у майбутньому. «На даний момент ця техніка обмежена високопродуктивними робочими станціями та новим класом CoPilot+ PC, які постачаються зі спеціалізованим AI-обладнанням», — пояснюють дослідники.
- Чи можна захиститися від такого шкідника? Так. Ключовою є ізоляція локальних AI-систем від можливості їх використання зловмисниками. Dreadnode опублікувала дослідження саме для того, щоб індустрія почала думати про захист від таких атак.
- Яку модель використовує шкідник? У прототипі використовується Phi-3-mini від Microsoft — відносно невелика мовна модель, яка може працювати локально на сучасному обладнанні.

Український контекст: чому це важливо для нас?
Для України, яка постійно перебуває під прицілом кібератак з боку Росії, поява нового класу AI-шкідників становить серйозну загрозу. Якщо традиційні шкідники можна виявити через моніторинг мережевого трафіку до C2-серверів, то автономні AI-агенти набагато складніше ідентифікувати.
Українські організації, держустанови та критична інфраструктура можуть стати мішенями для таких атак, особливо з огляду на те, що багато установ починають впроваджувати сучасні комп’ютери з AI-можливостями для підвищення продуктивності.
Водночас, це дослідження — важливий дзвінок для українських фахівців з кібербезпеки. Розуміння принципів роботи AI-шкідників дозволить розробити превентивні заходи захисту ще до того, як зловмисники почнуть масово використовувати цю технологію.
Чому це нагадує фантастичний сценарій «сірого слизу»?
У 1980-х науковці-нанотехнологи попереджали про сценарій «сірого слизу» — самореплікуючих наномашин, які поглинали б усе навколо, щоб створювати копії себе. Уявіть: одна наномашина стає двома, дві — чотирма, і за кілька днів вони з’їдають усю планету. Цей сценарій так і залишився теоретичним — нанотехнології не пішли цим шляхом.
Але AI-шкідники можуть втілити цей кошмар у новій формі. Тільки замість наномашин — віруси, які стрибають з комп’ютера на комп’ютер, використовуючи вбудований у них штучний інтелект. Кожен заражений пристрій стає новим джерелом атаки.
Правда, є одне «але»: AI-моделі — це не крихітні наномашини. Вони важкі, вимагають багато пам’яті та обчислювальної потужності. Тож такий «цифровий слиз» не може існувати сам по собі — він паразитує на вашому комп’ютері, вашому електричному струмі, ваших ресурсах.
Оптимістичний сценарій? Дослідження Dreadnode — це попередження, яке прийшло вчасно. Воно змусить виробників комп’ютерів та розробників операційних систем подумати, як ізолювати локальні AI-моделі, щоб хакери не могли їх використати. Краще виправити вразливість зараз, поки вона ще в лабораторії, а не коли мільйони комп’ютерів вже заражені.
Що далі: як індустрія реагує на нову загрозу?
Публікація дослідження Dreadnode — це не загроза, а попередження. Компанія свідомо оприлюднила технічні деталі прототипу, щоб спонукати індустрію кібербезпеки розробити захисні механізми до того, як зловмисники почнуть використовувати цю технологію в реальних атаках.
Виробники комп’ютерів, розробники операційних систем та постачальники AI-рішень мають переосмислити архітектуру безпеки своїх продуктів. Зокрема, локальні AI-моделі повинні працювати у «пісочниці» з обмеженим доступом до системних ресурсів та API.
Для індустрії кібербезпеки це означає необхідність розробки нових інструментів моніторингу, які зможуть виявляти аномальну поведінку локальних AI-моделей та запобігати їх експлуатації шкідниками.
Чому це важливо знати
LOLMIL демонструє, що революція у штучному інтелекті несе не лише можливості, але й нові виклики для кібербезпеки. Те, що ще вчора здавалося науковою фантастикою — автономні AI-агенти, що самостійно зламують системи, — сьогодні стало робочим прототипом. Для України, яка перебуває на передовій не лише фізичної війни з РФ, але й кібервійни, розуміння цих загроз є критично важливим. Дослідження Dreadnode дає індустрії час підготуватися до нового класу кіберзагроз, і саме від швидкості реакції залежить, чи стане AI-революція благом, чи створить нові вразливості у нашій цифровій інфраструктурі.
Джерела: