Перейти до основного вмісту

Стартап на $4,6 млрд хоче навчити ШІ вдосконалювати себе без людини

Новий стартап Recursive Superintelligence вийшов із режиму секретності 13 травня 2026 року із раундом фінансування на $650 мільйонів і оцінкою $4,65 мільярда — і поставив перед собою ціль, яку AI-дослідники шукають десятиліттями: штучний інтелект, здатний самостійно знаходити власні слабкості й виправляти їх без участі людини, повідомляє TechCrunch. За компанією стоїть За компанією стоїть Річард Сочер — учений, роботи якого лежать в основі сучасного штучного інтелекту, — і команда із семи співзасновників, чиї прізвища буквально вписані в університетські підручники. Жодного публічного продукту. Жодних опублікованих технічних результатів. Чисті гроші — під репутацію людей.

15 Травня 2026 о 11:47|Наука і технології|⏱ 11 хв читання|Поділитися:
Силует робота-гуманоїда зі штучним інтелектом у роздумах на фоні футуристичного міського горизонту
Фото: AI-генерація | 1920×1080

Що таке Recursive Superintelligence — і чому про це варто знати

Уявіть студента, який не просто вчиться — а ще й сам складає собі програму навчання, сам знаходить прогалини у власних знаннях і сам вигадує кращі способи їх усунути. Тепер уявіть, що цей студент — штучний інтелект, і він може робити мільярди ітерацій за добу.

Саме це і є рекурсивне самовдосконалення. Це не просто «ШІ, який навчається» — такі системи вже існують і використовуються скрізь. Звичайний ШІ робить те, що йому сказали. Рекурсивний — сам вирішує, що в собі покращити, і покращує. Придумує гіпотезу, тестує, відкидає невдалу, розвиває вдалу — і знову по колу. Людина в цьому циклі більше не потрібна.

Звучить як щось із наукової фантастики. Але Recursive Superintelligence каже: вони знають, як це зробити.

Хто такий Річард Сочер — і чому його прізвище знають усі AI-дослідники

Засновник компанії Річард Сочер — не черговий підприємець, який вирішив зайти у найгарячішу галузь. Він є одним із людей, які цю галузь і створили.

Сочер — провідний дослідник Стенфордської групи з обробки природної мови (NLP), чиї роботи з рекурентних нейромереж і аналізу тексту заклали основу для систем, які «розуміють» мову. Якщо ви коли-небудь стикались із системою, яка розпізнає настрій тексту або відповідає на запитання природною мовою — за цим стоїть частина роботи Сочера.

Далі — GloVe: алгоритм, який навчив комп’ютери розуміти значення слів через контекст. Потім — Salesforce, де він займав посаду головного вченого. Потім — You.com, AI-пошуковик, оцінений у $1,5 мільярда. А тепер — Recursive Superintelligence.

В науці є одна чесна міра: скільки разів інші посилаються на твою роботу. У Сочера — тисячі цитувань. Це не популярність, це вплив.

«Команда мрії»: семеро людей, чиї роботи цитують у кожному підручнику AI

Але справжній сигнал тут — не засновник. Справжній сигнал — це команда.

Юаньдон Тянь пішов із посади директора досліджень у Meta FAIR, щоб приєднатися до Recursive. Його спеціалізація — reinforcement learning: методи, завдяки яким системи навчаються не з прикладів, а через дії та їхні наслідки. Саме це лежить в основі того, як AI вчиться грати в ігри, керувати роботами — і, потенційно, вдосконалювати себе.

Тім Рокташель — професор Університетського коледжу Лондона, який до цього керував командою з open-endedness і самовдосконалення у Google DeepMind. Його підхід є серцем технічної концепції Recursive — про нього детально нижче.

Олексій Досовицький — один із авторів Vision Transformer (ViT), паперу 2020 року, який переписав правила комп’ютерного зору. До ViT нейромережі для аналізу зображень будувались одним способом — після нього все змінилося. Якщо сьогодні ШІ «розуміє» фотографію з точністю, яка вражає, — це значною мірою архітектура Досовицького.

Джош Тобін — один із перших співробітників OpenAI, де очолював команди Codex і Deep Research.

Тім Ші — співзасновник Cresta, яку він побудував до статусу єдинорога — компанії вартістю понад мільярд доларів.

Окремо варто сказати про радника: Пітер Норвіг — співавтор підручника «Artificial Intelligence: A Modern Approach». Понад тридцять років ця книга є стандартним курсом з AI в університетах по всьому світу. Якщо ви вчилися на AI-спеціаліста — ви, майже напевно, читали Норвіга.

За одним столом — люди, які не просто знають цю галузь, а значною мірою її створили.

$650 мільйонів за чотири місяці: що це означає насправді

Цифри, які важко сприйняти без контексту:

Компанія існує приблизно чотири місяці. Команда — близько 25–30 людей (офіси у Сан-Франциско та Лондоні). Жодного публічного продукту. Жодних оголошених технічних результатів.

І $650 мільйонів фінансування з оцінкою $4,65 мільярда. Раунд був «oversubscribed» — тобто бажаючих інвестувати було більше, ніж компанія могла прийняти.

Хто вклав гроші: GV (Google Ventures) — як головний інвестор, Greycroft — як co-lead, а також NVIDIA та AMD Ventures — тобто обидва найбільші виробники чипів для AI.

Це означає приблизно $22 мільйони на одного співробітника. Це рекорд навіть за мірками безумного AI-буму 2025–2026 років.

Що це насправді означає: інвестори не вкладають в технологію, якої ще немає. Вони вкладають у реноме команди. Це ставка на те, що якщо хтось і зможе зробити рекурсивне самовдосконалення — то саме ці люди.

Три стадії нейронних мереж — і де ми зараз

Спочатку — три хвилини контексту. Інакше третя стадія виглядатиме як магія.

Перша стадія — до 2010-х. Дослідник сам вирішував, на що машина має звертати увагу. Будуєте фільтр спаму — самі прописуєте: «шукай слова “БЕЗКОШТОВНО”, “КЛІКАЙ ЗАРАЗ”, “ЕКСКЛЮЗИВНА ПРОПОЗИЦІЯ”». Машина виконувала інструкції. Розумною в цій парі була людина — не алгоритм.

Друга стадія — зараз. Архітектуру системи все ще проектує людина, але те, на що саме звертати увагу, — машина знаходить сама, переглянувши мільярди прикладів. GPT, Claude, Gemini — все це друга стадія. Людина задає «форму» нейромережі, а машина сама знаходить «зміст».

Третя стадія — ціль Recursive. Системи, які автоматизують сам процес проектування. Не просто вчаться на даних — а самі знаходять кращі алгоритми, кращі архітектури, кращі способи тренування. Дослідник із цього рівняння випадає повністю.

Сочер формулює без зайвих слів: це третя — і, можливо, остання — стадія нейронних мереж. Далі машини вдосконалюватимуть себе без нас.

Що таке «відкрита нескінченність» — і при чому тут еволюція

Ключова концепція Recursive — open-endedness, відкрита нескінченність. Саме це відрізняє їх від інших лабораторій.

Найкращий спосіб зрозуміти цю ідею — через біологічну еволюцію. Гепард еволюціонує, щоб бігти швидше. Антилопа, яку він ловить, еволюціонує, щоб тікати ще швидше. Гепард відповідає — ще більшою швидкістю. Цей процес не має кінця і не потребує зовнішнього «проектувальника». Він може тривати мільярди років, і в результаті виникають феноменально складні й ефективні системи.

Саме очі в нашій голові — результат такого процесу. Ніхто не «проектував» очне яблуко. Воно виникло через мільярди ітерацій конкуренції між хижаком і жертвою.

Тім Рокташель — той самий, хто керував командою open-endedness у Google DeepMind і розробляв Genie 3 (систему, яка може створити інтерактивний ігровий світ буквально з будь-якого концепту) — приніс цей підхід у Recursive. Ідея: запустити штучну «еволюцію» AI-систем, де вони конкурують і вдосконалюють одна одну без участі людини.

Rainbow teaming: як два ШІ роблять один одного кращими і безпечнішими

Кістяк тут добрий — особливо ритм «люди стомлюються / думають шаблонно / можуть тисячу, але не мільйон». Це тримати. Проблеми в іншому: млявий вступ, «Почнемо з поняття» — знову YouTube, і «Звідси й назва» після пояснення назви — зайве.


Rainbow teaming: як два ШІ роблять один одного кращими і безпечнішими

Метод rainbow teaming — розроблений Рокташелем — найпростіше пояснює, що таке open-endedness на практиці.

Спершу — red teaming. Це поняття прийшло з кібербезпеки і означає просте: ви навмисно намагаєтесь зламати власну систему, щоб знайти слабкі місця раніше, ніж їх знайде хтось інший. В контексті AI це виглядає так: наймаєте спеціалістів, які годинами придумують запити, на які модель не повинна відповідати — як змусити її розповісти про небезпечне.

Проблема: люди стомлюються. Люди думають шаблонно. Люди можуть перебрати тисячу варіантів — але не мільйон.

Rainbow teaming замінює людину другим ШІ. Він отримує одне завдання: знайти якнайбільше способів змусити перший ШІ сказати щось шкідливе. Перший вчиться на атаках і стає стійкішим. Другий, бачачи, що старі підходи не працюють, шукає нові. І так — мільярди ітерацій, без зупинки, без утоми, без кави.

«Веселка» в назві — бо атак не одна і не дві, а цілий спектр: різні кути, різна логіка, різні стилі маніпуляції.

Сочер зазначає: цей підхід вже використовують усі великі AI-лабораторії. Recursive хоче пішли далі — застосувати ту саму логіку коеволюції не лише для безпеки, а для самого процесу AI-дослідження.

«50 000 лікарів» і мета першого продукту

Перша практична ціль Recursive — система з «можливостями 50 000 лікарів». Не для лікування — для автоматизації самого AI-дослідження.

Логіка проста: якщо ШІ вміє виконувати роботу дослідника — знаходити гіпотези, перевіряти їх, відкидати невдалі, розвивати перспективні — то найшвидший спосіб пришвидшити AI — це натравити AI на AI. Замкнути петлю.

Замість 50 000 дослідників, яких фізично не найняти, запускається система, що виконує ту саму роботу паралельно. Генерує ідеї. Тестує. Відкидає невдалі. Масштабує перспективні. Без вихідних, без кави, без зупинок.

Це перший етап дорожньої карти. Публічний запуск — середина 2026 року. Далі — фізика, хімія, передклінічна біологія.

Терміни Сочер окреслив коротко: квартали, не роки.

Станіслав Лем і «інформаційний бар’єр»: фантаст, який передбачив це 60 років тому

Тім Рокташель посилається на Станіслава Лема — і не для краси.

Лем ввів поняття «інформаційного бар’єру»: точки, де нових знань стає так багато, що жодна людина вже не здатна їх інтегрувати, перевіряти й осмислювати. Навіть якщо читати тільки наукові статті — цілодобово, без зупинок — ви охопите крихітну частку того, що публікується щодня.

Тільки в галузі AI щороку з’являються тисячі нових досліджень. Хороший дослідник встигає стежити за кількома вузькими підгалузями. Загальна картина — вже недоступна жодній людині.

Лем бачив у цьому загрозу. Recursive бачить вихід: якщо AI може читати все, знаходити зв’язки, генерувати гіпотези і тестувати їх — бар’єр зникає. Принаймні для машини.

Рак чи вірус: як compute перетворюється на моральний вибір

Якщо AI вирішує наукові проблеми самостійно — що взагалі стає обмеженням? Не кількість дослідників. Не час. Тільки обчислювальна потужність — compute.

І тут технічне питання стає моральним: скільки compute виділяти — і на що?

Сочер формулює конкретно: ось рак підшлункової залози, ось вірус Ебола — яку проблему вирішувати першою? Скільки серверного часу дати кожній? Це вже не наукове рішення — це бюджетне. Як пріоритети міністерства охорони здоров’я, тільки в глобальному масштабі й із незрівнянно більшими наслідками.

Хто це вирішуватиме — приватна компанія, держава, міжнародна організація, якої ще не існує? Сочер не відповідає. Але сам факт, що питання поставлене — вже багато говорить про те, куди рухається ця технологія.

Ризики: чому це може або спрацювати, або стати катастрофою

Головна проблема — вступ «було б нечесно». Це вибачення перед читачем, не потрібне. Чотири рази «Проблема X» — монотонно. І «здійсненність» — найважливіший скептичний аргумент — написана найслабше.


Ризики: чому це може або спрацювати, або стати катастрофою

Чорна скринька. Якщо AI сам проектує себе — людина поступово перестає розуміти, що відбувається всередині. Перевірити безпеку такої системи стає майже неможливим. Чим складніша система — тим менше ми розуміємо, чому вона робить те, що робить.

CEO Microsoft AI Мустафа Сулейман назвав рекурсивне самовдосконалення однією з чотирьох «червоних ліній» — речей, поява яких у AI-системах вимагатиме екстрених дій.

Цінності. Якщо система сама вирішує, що в собі покращити — вона непрямо формує власні пріоритети. Хто контролює, в який бік вона еволюціонує?

Влада. Хто вирішує, скільки compute дати раку, а скільки — вірусу? Приватна компанія? Держава? Міжнародна організація, якої ще не існує? Технічне питання стає питанням про те, хто ухвалює рішення за людство.

Здійсненність. Рекурсивне самовдосконалення обговорюють із 1960-х — і ніхто ще не досяг його. Не тому що не намагались. Шістдесят років, найрозумніші люди планети — і нуль результатів. Це або дуже важко, або неможливо.

Контекст: усі великі лабораторії вже грають у ту саму гру

Recursive Superintelligence не з’явилась у вакуумі.

Anthropic заявила, що більшість коду для власних систем тепер пишеться за допомогою Claude. OpenAI використовує власні моделі для прискорення досліджень. Google DeepMind, Meta — аналогічно. Тобто «AI пише AI» — це не амбіційна мета. Це вже реальність, яку описують самі компанії.

Як ми раніше писали, у Давосі CEO Google DeepMind Деміс Хассабіс прямо сказав: «залишається побачити, чи може цей цикл самовдосконалення фактично замкнутися без людини в петлі». Тобто питання вже не «чи можливо це теоретично» — питання в тому, хто зробить це першим і як.

Recursive Superintelligence — ставка на те, що саме вони знають відповідь. Причина, чому це не просто черговий стартап: команда знає, про що говорить. Це не підприємці, які вирішили заробити на хайпі. Це люди, які побудували фундамент, на якому стоїть весь сучасний AI — і тепер вони кажуть, що знають, куди будувати далі.

Чому це важливо знати

Рекурсивне самовдосконалення — не технічна деталь для спеціалістів. Якщо це спрацює, воно змінить темп технологічного прогресу в усіх науках: від медицини до матеріалознавства. Скільки часу займе відкриття наступного класу антибіотиків чи нового матеріалу для сонячних батарей — визначатиметься не кількістю людей-дослідників, а кількістю серверів. Хто контролює сервери — той визначає пріоритети. Це питання, яке стосується не тільки Кремнієвої долини.

Автор
Стартап на $4,6 млрд хоче навчити ШІ вдосконалювати себе без людини
Олександр Остапець
Журналіст kyiv.news

Оглядач київських новин Журналіст, пише про інфраструктуру Києва, транспорт, міське планування, а також висвітлює теми криміналу та корупції.

Усі статті автора →