Меморандуми і коктейль Молотова: тиждень глави OpenAI
У ніч на 10 квітня 2026 року невідомий кинув «коктейль молотова» у будинок засновника і генерального директора OpenAI Сема Альтмана в Сан-Франциско — через три дні після того, як журнал The New Yorker опублікував про нього масштабне розслідування: понад 15 000 слів, більше ста свідків і систематичний портрет людини, яка, на думку її найближчих колег, живе за власними правилами, повідомляє The New Yorker. Коктейль відскочив від стіни, ніхто не постраждав. Підозрюваного заарештували наступного ранку — біля штаб-квартири OpenAI, де він погрожував підпалити будівлю. Але атмосфера навколо найдорожчої AI (штучного інтелекту)-компанії планети залишилась вибуховою.

Коктейль Молотова і стаття The New Yorker
Альтман сам написав про напад у своєму блозі. Він розмістив фото свого чоловіка Олівера Малгеріна і їхньої дитини, сподіваючись, що образ сімʼї стримає потенційних нападників. Сам напад він пов’язав із публікацією The New Yorker, яка вийшла незадовго до того.
The New Yorker — один із найавторитетніших журналів у світі. Автори матеріалу — Ронан Фарроу, журналіст-пулітцерівський лауреат, відомий насамперед розслідуванням про Гарві Вайнштейна, та Ендрю Мараньц, який спеціалізується на технологіях і політиці. Вони збирали матеріал майже два роки, поспілкувавшись більш ніж зі ста людьми: нинішні й колишні співробітники та члени правління OpenAI, інвестори, конкуренти, друзі та вороги.
Те, що вони написали, — це не просто профіль одного керівника. Це питання: хто насправді тримає руку на «кнопці» технології, яку називають найпотужнішою в історії людства?
Листопад 2023: звільнення, яке тривало пʼять днів
Щоб зрозуміти, чому вся ця буря взагалі виникла, треба повернутися на два з половиною роки назад.
Восени 2023 року головний науковець OpenAI Ілля Суцкевер надіслав трьом членам правління секретні меморандуми. Документи — 70 сторінок листування у Slack та HR (кадрових)-матеріалів — були надіслані як зникаючі повідомлення. Один із членів правління пізніше описував реакцію Суцкевера як стан глибокого потрясіння.
Суцкевер та Альтман колись були друзями. У 2019 році Суцкевер вів весільну церемонію Грега Брокмана прямо в офісі OpenAI, де роль носія обручки зіграла рука робота. Але з часом Суцкевер дійшов переконання, що Альтман — не та людина, якій слід довіряти контроль над AGI (штучним загальним інтелектом).
Перший пункт меморандумів звучав коротко й однозначно — одне слово: брехня. Далі йшов систематичний перелік конкретних прикладів.
Правління — шість осіб, включаючи Суцкевера, дослідницю AI-політики Гелен Тонер та підприємницю Ташу МакКолі — проголосувало за звільнення. Альтмана запросили на відеодзвінок, зачитали підготовлену заяву і повідомили, що він більше не є співробітником компанії. У той момент він був у Лас-Вегасі — на перегонах Формули-1. Публічна заява правління містила лише одне формулювання: Альтман не був послідовно відвертим у своїх комунікаціях.
«Уряд у вигнанні» і пʼять безумних днів
Що відбулося далі — нагадує серіал.
Альтман прилетів назад до свого особняка вартістю $27 мільйонів у Сан-Франциско з панорамним видом на затоку. Там він організував те, що сам назвав урядом у вигнанні. Інвестор Рон Конвей, співзасновник Airbnb Браян Чески і відомий кризовий піарник Кріс Лехейн годинами щодня були на звʼязку. Частина виконавчої команди ночувала в коридорах будинку. Юристи влаштувалися в домашньому офісі по сусідству зі спальнею. Під час нападів безсоння він натикався на них у піжамі.
Щовечора о шостій Альтман робив паузу для раунду негроні, зовні демонструючи спокій. Але при цьому, судячи з телефонних записів, він проводив на дзвінках понад дванадцять годин на добу.
Генеральний директор Microsoft Сатья Наделла, за його словами, був вражений і не міг нічого зʼясувати — компанія дізналась про звільнення за лічені хвилини до оголошення. Він зателефонував співзасновнику LinkedIn Ріду Хоффману, шукаючи ясності. Хоффман зізнався, що теж не розумів, що відбувається, і не знайшов жодних очевидних причин — ні фінансових порушень, ні домагань.
Тим часом венчурний фонд Thrive, який перебував у фіналі угоди з оцінкою OpenAI в $86 мільярдів, поставив інвестиції на паузу і дав зрозуміти: гроші прийдуть лише якщо Альтман повернеться. А це означало, що сотні співробітників втратять виплати за своїми акціями.
Публічний лист із вимогою повернення Альтмана підписала більшість співробітників OpenAI — з погрозою піти інакше. Навіть Міра Мураті, яка тимчасово виконувала обовʼязки CEO (генерального директора) і дала Суцкеверу матеріали для меморандумів, у підсумку підписала лист.
На кону опинилося виживання всієї компанії. Тонер пізніше сформулювала дилему просто: «Control Z — скасувати звільнення. Або компанія розпадається».
Дружина Брокмана підійшла до Суцкевера в офісі з особистим проханням виправити ситуацію. Суцкевер пізніше пояснив у судових показаннях, що повернення Альтмана стало, на його думку, єдиним способом врятувати компанію від розпаду.
За менш ніж пʼять днів Альтман був поновлений на посаді. Суцкевер, Тонер і МакКолі втратили місця в правлінні. Новими членами стали колишній президент Гарварду Лоуренс Саммерс і колишній CTO (технічний директор) Facebook Брет Тейлор — обидва призначені після консультацій з Альтманом. Співробітники прозвали цей епізод «Бліп» — за аналогією з подією у фільмах Marvel, де персонажі зникають і повертаються, ніби нічого не сталося, але в змінений назавжди світ.
Хто такий Сем Альтман: від покеру в Стенфорді до мільярдів
Альтман виріс у Клейтоні, штат Міссурі — заможному передмісті Сент-Луїса. Мати — дерматолог, батько — брокер з нерухомості. У шістнадцять-сімнадцять років його жорстоко побили з гомофобними образами. Він не заявив про інцидент і неохоче говорить про нього публічно — визнаючи, що ця подія, мабуть, залишила глибокий психологічний слід.
У Стенфорді він регулярно відвідував нелегальні покерні ігри за межами кампусу і стверджував, що вивчив там більше про бізнес і людей, ніж у коледжі.
Після другого курсу він відправився до першого набору стартап-інкубатора Y Combinator. Стартап Loopt використовував геолокацію телефонів, щоб підказувати друзям місцезнаходження одне одного. Характерна риса вже тоді: знаходити вигоду в неоднозначних ситуаціях.
Більшість співробітників Loopt любили Альтмана. Але деяких вражала його схильність перебільшувати — навіть у дрібницях. Старший менеджер Марк Якобстайн, якого інвестори попросили наглядати за молодим директором, порівнював цю рису з найтоксичнішою формою, що веде до ситуацій на кшталт Theranos. Двічі групи старших співробітників просили правління Loopt звільнити Альтмана. Марно.
Коли Пол Грейем у 2014 році пішов з Y Combinator, він призначив Альтмана своїм наступником — президентом компанії у 28 років. Грейем пізніше згадував, що під час запрошення побачив на обличчі Альтмана неконтрольовану посмішку — єдиний раз за весь час знайомства. До 2018 року кілька партнерів YC звернулися до Грейема зі скаргами. У приватних розмовах Грейем дав зрозуміти, що Альтман весь цей час вводив його в оману.
Народження OpenAI: «Манхеттенський проєкт для ШІ»
У травні 2015 року Альтман надіслав електронного листа Ілону Маску. Обидва були стурбовані AI. Альтман запропонував ідею: приватно фінансована організація, де безпека буде вимогою першого класу і яка кинула б виклик Google у гонці за AGI — компанії, яка, як ми писали, продовжує випускати потужні відкриті моделі. Якщо ця технологія все одно зʼявиться — краще, щоб її створив не Google.
OpenAI мав стати некомерційним. Маск пообіцяв покрити до мільярда доларів початкових зобовʼязань.
Справжньою цінністю OpenAI були люди. Ілля Суцкевер — якого часто називали найобдарованішим AI-вченим свого покоління — мав пропозицію від Google на $6 мільйонів на рік. OpenAI не могло перебити це фінансово, але Альтман робив ставку на переконання, що місія важливіша за гроші.
Іншою ключовою фігурою став Даріо Амодеї — біофізик із невгамовною енергією. Він почав вести докладні нотатки — понад двісті сторінок — про свій досвід роботи в OpenAI. Ці нотатки стали одним із головних джерел розслідування The New Yorker. У 2020 році Амодеї, його сестра Даніела та кілька колег пішли з OpenAI й заснували Anthropic — сьогодні головного конкурента компанії, про яку ми раніше писали у зв’язку з витоком даних про Claude Mythos.
Обіцянка безпеки і як вона випаровувалась
OpenAI засновувався як некомерційна організація з юридично зобовʼязуючою місією: безпека людства важливіша за успіх компанії. Поняття «AGI-диктатура» — сценарій, за якого одна людина отримує монопольний контроль — засновники вважали головним ризиком. У статуті навіть передбачалась клаузула: якщо інша компанія наблизиться до безпечного AGI раніше, OpenAI зобовʼязаний зупинитись і допомагати конкуренту.
Але поступово обіцянки почали розходитись із реальністю. Тим часом, як ми писали, штучний інтелект вже навчився зламувати комп’ютери — і це лише підкреслює ставки в цій грі.
У 2023 році OpenAI оголосив про команду суперальянменту — групи, що мала вирішити проблему безпеки надпотужного AI. Публічна обіцянка: 20% обчислювальних ресурсів компанії. Але четверо людей, які працювали в команді або були тісно повʼязані з нею, стверджують, що реально вона отримала від одного до двох відсотків — на найстарішому обладнанні з найгіршими чіпами. Ресурси краще зберігались для діяльності, що приносить прибуток.
Ян Ляйке, один із керівників команди, після численних скарг написав правлінню: пріоритети компанії змістились — продукт і виручка стоять вище за безпеку. Тодішній CTO Мураті відповіла, що таке зобовʼязання ніколи не було реалістичним. Команду суперальянменту розпустили. Суцкевер і Ляйке пішли.
GPT-4 та Індія: правління починає розуміти
Правління почало виявляти конкретні випадки, коли Альтман, судячи з усього, вводив їх в оману.
На зустрічі в грудні 2022 року він запевнив правління, що ряд функцій GPT-4 пройшли перевірку комісії з безпеки. Тонер запросила документацію — і зʼясувала, що найбільш суперечливі функції схвалення не отримували. Виходячи зі зборів, вона дізналась, що Microsoft випустила ранню версію ChatGPT в Індії без обовʼязкового перевірочного огляду з безпеки — і Альтман, попри багатогодинні брифінги з правлінням, жодного разу про це не згадав.
Щось подібне сталося і з GPT-4 Turbo: Альтман нібито сказав Мураті, що модель не потребує схвалення з безпеки, посилаючись на головного юридичного радника. Той, у відповідь на запит Мураті, написав, що не розуміє, звідки у Альтмана таке враження.
Це — не одиничні випадки, а частина системної поведінки, яку Суцкевер у своїх меморандумах описав як несумісну зі створенням безпечного AGI.
Ель-Ріяд, $20-мільйонний McLaren і смерть Хашоггі
Побудова штучного загального інтелекту вимагає надзвичайних сум. Де брати кошти?
У 2016 році Альтман познайомився з Мухаммадом ібн Салманом — фактичним правителем Саудівської Аравії. За словами тодішнього радника з питань політики, після цього Альтман почав публічно називати принца другом.
У жовтні 2018 року стало відомо, що Альтман увійшов до консультативної ради мегапроєкту Neom — за тиждень після того, як за наказом принца була вбита журналіст Washington Post Джамаль Хашоггі. Директор з питань політики Джек Кларк прямо попередив: перебувати в цій раді неприпустимо. Альтман зрештою вийшов. Але за закритими дверима, за словами консультанта, питання ставилось не про моральну прийнятність, а виключно про можливі репутаційні наслідки.
Шейх Тахнун бін Заїд аль-Нахайан — брат президента ОАЕ і начальник розвідки країни — контролює $1,5 трильйона суверенних фондів. У 2024 році Альтман відвідав його на суперяхті Maryah вартістю $250 мільйонів і публічно назвав близьким особистим другом.
За даними розслідування, у Альтмана є щонайменше два гіперкари: Koenigsegg Regera вартістю близько $2 мільйонів та McLaren F1 вартістю близько $20 мільйонів. У 2024 році його зафіксували за кермом Regera — кілька секунд відео потрапили у соцмережі.
Коли Альтман проходив перевірку для отримання секретного допуску до урядових AI-засідань, аналітики корпорації RAND висловили занепокоєння масштабом його фінансових звʼязків з іноземними урядами. В одному зі звітів його порівняли з Джаредом Кушнером — людиною, якій аудитори рекомендували не надавати допуск із аналогічних причин. Альтман сам вийшов із процесу.
Розслідування без звіту
Коли Альтман повернувся після «Бліпу», умовою відходу попередніх членів правління стало незалежне розслідування. До справи залучили WilmerHale — авторитетну юридичну фірму.
Але шість осіб, близьких до розслідування, стверджують: воно виглядало розробленим, щоб обмежити прозорість. Слідчі спочатку не звʼязувалися з ключовими фігурами. Ті, хто давав показання, казали, що слідство цікавила вузька хронологія правлінської драми — але не ширша картина поведінки Альтмана.
У березні 2024 року OpenAI оголосив, що Альтман очищений — але не опублікував жодного звіту. На сайті компанії зʼявилось лише близько восьмисот слів із визнанням руйнування довіри. Письмових висновків не існувало: рішення не фіксувати нічого документально було прийнято частково за порадою особистих адвокатів нових членів правління.
Один із людей, наближених до розслідування, підсумував: слідство шукало явні кримінальні злочини — і не знайшовши їх, вирішило, що Альтман може залишитися CEO. Питання про системну нечесність залишилось без відповіді.
Саммерс пізніше покинув правління після скандального оприлюднення листування, де він звертався за порадою до Джеффрі Епштейна з особистих питань.
Трамп, Stargate і нова математика влади
Рік тому Альтман ще представлявся людиною, яка виступає за регуляцію AI. У 2023 році він свідчив перед Сенатом і попереджав: якщо технологія піде не туди — це може піти дуже не туди — і запропонував створити федеральне агентство контролю.
Але паралельно OpenAI тихо лобіював проти обмежень — зокрема, успішно вплинув на пом’якшення регуляторного проєкту Євросоюзу. Коли у 2024 році Каліфорнія розробляла закон про безпеку AI, законодавчий помічник описав поведінку компанії як дедалі хитрішу та оманливу. Губернатор Ньюсом наклав вето на закон після лобіювання.
Після перемоги Трампа Альтман задонатив мільйон доларів на інавгуральний фонд. Трамп у перший же день скасував виконавчий указ Байдена про безпеку AI. На другий день Альтман стояв у Рузвельтівській залі Білого дому й оголосив Stargate — спільне підприємство вартістю $500 мільярдів із метою побудови AI-інфраструктури по всіх США. Невдовзі проєкт розширився в ОАЕ: планується кампус дата-центрів в Абу-Дабі розміром у сім разів більшим за Центральний парк.
Сьогодні OpenAI готується до IPO (первинного публічного розміщення акцій) з потенційною оцінкою $1 трильйон. Компанія отримує урядові контракти в імміграційному контролі, внутрішньому стеженні та автономних системах зброї — у світі, де, як ми писали, ШІ вже здатний бачити крізь стіни і зчитувати серцебиття. У лютому цього року OpenAI уклав угоду на $50 мільярдів з Amazon Web Services — ключовим компонентом цифрової інфраструктури Пентагону.
Маск продовжує публічно атакувати Альтмана і судиться з ним, звинувачуючи в шахрайстві. Але в Вашингтоні Альтман, схоже, переграв його: Маск пішов із Білого дому, зіпсувавши відносини, а Альтман обідає навпроти президента.
Що кажуть ті, хто з ним працював
The New Yorker зібрав широкий спектр думок — і вони розходяться, але за певним принципом.
Прихильники кажуть: Альтман — просто адаптивний лідер у галузі, де все змінюється надшвидко. Колишній член правління Сью Юн вважає, що він не злодій, а людина, надто захоплена власними переконаннями, щоб жити у реальному світі.
Критиків більшість. Один із членів правління описував його як людину з двома рідкісними, майже несумісними рисами: сильним бажанням подобатись у кожній конкретній взаємодії — і майже соціопатичною байдужістю до наслідків власної нечесності для оточення. Слово «соціопат» вживали кілька людей незалежно одне від одного.
Аарон Шварц — блискучий програміст, якого у технологічних колах часто згадують як мудреця і який помер у 2013 році — незадовго до смерті попереджав знайомих, що Альтманові не можна довіряти.
Старші топ-менеджери Microsoft розповіли, що відносини з Альтманом стали напруженими: він систематично спотворював домовленості й порушував угоди. Один із них допускає, що Альтмана колись можуть згадувати в одному ряду з найгучнішими фінансовими шахраями сучасності.
Сам Альтман пояснює свою мінливість адаптивністю — поступовою добросовісною еволюцією поглядів під тиском обставин. Особистих амбіцій у собі він не визнає — хоча й зауважує, що ніхто все одно в це не вірить.
Безпека: що залишилось від місії
Поки The New Yorker писав матеріал, OpenAI закрив більшість команд із безпеки. І це на тлі того, що, як ми писали, у світі вже існує понад 56 моделей потужніших за GPT-3 — і контроль над ними дедалі більше нагадує ілюзію. Команду суперальянменту розпустили. Команду «готовності до AGI» — теж. В останній формі звітності IRS (Служби внутрішніх доходів США) поняття «безпека» зникло з опису ключових напрямів діяльності — хоча раніше незмінно було присутнє.
Інститут Future of Life оцінює великі AI-компанії за критерієм екзистенційної безпеки. Остання оцінка OpenAI — «F». Інші великі компанії також отримали провальні оцінки, за винятком Anthropic (D) і Google DeepMind (D-).
Коли автори розслідування попросили OpenAI порекомендувати для інтервʼю дослідників, що займаються екзистенційною безпекою, представник компанії здивувався: що мається на увазі під цим поняттям.
На запитання, чи вимагає керівництво AI-компанією підвищеного рівня чесності, Альтман відповів спочатку розмито — і лише пізніше, в окремому зверненні, погодився: так, це вимагає підвищеного рівня чесності, і він відчуває вагу цієї відповідальності щодня.
Чому це важливо знати
OpenAI — це не просто черговий технологічний стартап. Це компанія, яка будує те, що сама називає найпотужнішою технологією в історії людства — і яка вже реально впливає на те, як проводяться військові операції, контролюється міграція і функціонують системи стеження. Людина на чолі цієї компанії формує правила гри для всієї галузі. Питання про те, наскільки йому можна довіряти, — це питання про те, в чиїх руках опиняється майбутнє мільярдів людей. The New Yorker не дає однозначної відповіді. Але сам масштаб зібраних свідчень змушує поставити її серйозно.
Джерела: The New Yorker: «Moment of Truth: Sam Altman May Control Our Future — Can He Be Trusted?»; TechCrunch: Sam Altman responds to New Yorker article after attack on his home

Медіаменеджер і автор-фрілансер з 1991 року. Займається креативним продакшном та розвитком медіа.
Усі статті автора →









