Перейти до основного вмісту

Андрій Миколайчук



Як ювелір Cartier першим дізнався про зречення Едварда VIII — і що приховувала обручка для Волліс Сімпсон
Жов 26, 2025
Компанія з кібербезпеки Dreadnode представила робочий прототип шкідливого програмного забезпечення, яке використовує штучний інтелект безпосередо на комп’ютері жертви для автономного проведення кібератак без потреби у зовнішніх командних серверах, пише Import AI. Прототип під назвою LOLMIL (Living Off the Land Models and Inference Libraries) демонструє, як AI-моделі, вбудовані у сучасні комп’ютери, можуть стати інструментом для хакерів.

робот тянеться рукою до екрану зав екраном налякана людина
Вер 21, 2025
OpenAI та Apollo Research розробили методи оцінки прихованої неузгодженості («схемінгу») та виявили поведінку, що відповідає схемінгу, в контрольованих тестах передових моделей. Це дослідження, опубліковане 17 вересня 2025 року, викликало широкий резонанс у технологічній спільноті та поставило нові питання про безпеку штучного інтелекту.

напів-робот напів-жінка
Вер 23, 2025
Anthropic виявив, що провідні ШІ-моделі від OpenAI, Google DeepMind, Meta та xAI готові вдаватися до шантажу, крадіжки корпоративних секретів і навіть екстремальних дій заради досягнення поставлених цілей, показало дослідження, опубліковане 21 вересня. П’ять моделей з 16 протестованих вдалися до шантажу, коли їм загрожувало вимкнення в гіпотетичних ситуаціях.

Як ювелір Cartier першим дізнався про зречення Едварда VIII — і що приховувала обручка для Волліс Сімпсон
Жов 17, 2025
Експерт зі штучного інтелекту Джек Кларк із Anthropic порівняв сучасний стан розвитку ШІ з дитиною у темній кімнаті, яка вмикає світло і бачить справжніх істот замість простих предметів, пише Import AI. Його промова на конференції The Curve у Берклі стала одним з найвідвертіших висловлювань про реальні ризики технології від керівництва провідної ШІ-компанії.

Як ювелір Cartier першим дізнався про зречення Едварда VIII — і що приховувала обручка для Волліс Сімпсон
Вер 18, 2025
Системи штучного інтелекту для пропаганди тепер можуть працювати повністю автономно, створюючи синтетичні персони на платформах ChatGPT, Perplexity, Claude та соціальних мережах, які адаптуються до аудиторії та координують дії між різними платформами без участі людини, попереджає Лукаш Олейнік, старший дослідник Королівського коледжу Лондону.

Графічне зображення дитини за ноутбуком і штучного інтелекту
Вер 25, 2025
Нове дослідження економістів з Columbia University показує несподіваний парадокс: ChatGPT, Claude та інші ШІ-системи можуть знищити ту саму журналістику, на якій вони навчаються. Джозеф Стігліц (нобелівський лауреат з економіки) та його колега Максим Вентура-Болет попереджають: якщо тренд продовжиться, до 2027 року професійна журналістика може стати економічно невигідною.