Google випустила Gemma 4: відкритий ШІ для домашнього ПК
Google 2 квітня 2026 року випустила Gemma 4 — нове покоління відкритих мовних моделей, яке складається з чотирьох варіантів різного розміру та вперше підтримує мультимодальність прямо «з коробки»: модель розуміє текст, зображення та аудіо, повідомляє Google. Найбільша з них увійшла до трійки найсильніших відкритих ШІ-моделей у світі — і при цьому залишається єдиною у своєму класі, яку можна запустити на звичайному домашньому комп’ютері без хмари та корпоративних серверів.

Чим Gemma відрізняється від Gemini і навіщо вона потрібна
Перш ніж занурюватися в деталі — трохи контексту. Коли більшість людей чують «ШІ від Google», вони думають про Gemini: великий хмарний асистент, доступний через браузер чи застосунок. Але є інша лінійка — Gemma. Це «менший брат» Gemini, якого Google публікує у відкритий доступ: будь-хто може завантажити модель, запустити її на своєму залізі й використовувати — хоч у власному продукті, хоч у наукових дослідженнях.
Це принципово інший підхід. Закриті моделі — як-от GPT-4 від OpenAI — доступні лише через API: ти надсилаєш запит, платиш за токени, отримуєш відповідь. Відкриті моделі — як Gemma — живуть у тебе локально. Повна приватність, нульова залежність від стороннього сервера, нульові витрати на кожен запит після завантаження. Як ми раніше писали, саме боротьба між відкритими і закритими моделями визначає сьогодні ринок ШІ.
З виходом Gemma 4 цей принцип зберігається — але масштаб і можливості зросли кардинально.
Чотири моделі замість однієї: що і для кого
Gemma 4 — це не одна модель, а родина з чотирьох, кожна під свою задачу.
31B Dense — флагман лінійки. Позначка «31B» означає 31 мільярд параметрів, тобто 31 мільярд числових «важелів», які визначають, як модель думає. Для порівняння: перший GPT-3 мав 175 мільярдів параметрів, але тодішня архітектура була значно менш ефективною. «Dense» означає «щільна» — всі параметри активні при кожному запиті. Ця модель дає найвищу якість і входить до топ-3 серед усіх відкритих моделей у світі.
26B MoE — найцікавіший інженерний компроміс лінійки. MoE розшифровується як Mixture of Experts («суміш експертів»). Уявіть, що замість одного універсального мозку у вас є команда вузьких спеціалістів. Коли надходить запит про математику — активуються «математичні нейрони», коли про поезію — «поетичні». Решта «сплять» і не витрачають ресурс. Завдяки цьому модель з 26 мільярдами параметрів поводиться майже як значно більша — але при цьому споживає набагато менше пам’яті та обчислень. Це і є та сама модель «майже топового рівня, яку можна запустити вдома».
E4B та E2B — «edge»-версії, оптимізовані для пристроїв з обмеженими ресурсами. «Edge» у технологічному слензі — це не «межа», а «периферія»: смартфони, планшети, ноутбуки, вбудовані системи. Якщо ви хочете, щоб ШІ-асистент працював прямо на телефоні без інтернету — ось ваш варіант. E4B має 4 мільярди параметрів, E2B — 2 мільярди. Вони менш потужні, але надзвичайно легкі й швидкі.
Контекстне вікно: чому 256 000 токенів — це проривна цифра
Одна з найважливіших характеристик будь-якої мовної моделі — розмір «контекстного вікна». Простими словами: скільки тексту модель може «тримати в голові» одночасно при обробці запиту.
Малі моделі Gemma 4 (E2B та E4B) підтримують 128 000 токенів. Приблизно 90–100 сторінок тексту. Це вже серйозно.
Старші моделі (26B MoE та 31B Dense) — 256 000 токенів. Це близько 200 сторінок — уся «Анна Кареніна» або середній науковий звіт з додатками. Ви можете вставити у запит цілу книгу, юридичний договір або базу коду — і модель оброблятиме це як єдине ціле, не «забуваючи» початок до того, як дійде до кінця.
Для порівняння: ранні версії ChatGPT мали контекстне вікно в 4 096 токенів — тобто приблизно три сторінки A4. Стрибок від трьох сторінок до двохсот — за два-три роки.
Мультимодальність: текст, картинка й звук в одному запиті
Попередні версії Gemma працювали лише з текстом. Gemma 4 підтримує мультимодальний ввід — текст, зображення та аудіо одночасно.
На практиці це означає: ви можете надіслати фотографію документа і попросити витягти з неї дані. Або надіслати скріншот інтерфейсу і запитати, чому кнопка не працює. Або завантажити аудіозапис наради і попросити зробити конспект. Все це — локально, без хмари, безкоштовно після завантаження моделі.
Apache 2.0: що означає ця ліцензія для вас
Gemma 4 виходить під ліцензією Apache 2.0 — одним із найбільш лояльних стандартів відкритого програмного забезпечення. Конкретно це означає:
- Можна використовувати в комерційних продуктах — без роялті та без дозволу Google
- Можна модифікувати модель, дообучати її, адаптувати під свої задачі
- Можна вбудувати в застосунок і продавати цей застосунок
Єдина вимога — зберігати вихідне посилання на ліцензію. Для стартапів, розробників і дослідників це фактично означає безкоштовний доступ до технології корпоративного рівня.
Для агентів і автоматизації: чому це важливіше, ніж здається
Окремо варто виділити позиціонування Gemma 4 як основи для ШІ-агентів. Агент — це не просто чатбот, який відповідає на запитання. Це програма, яка виконує послідовність дій: шукає інформацію в інтернеті, надсилає листи, бронює зустрічі, аналізує дані, пише код і запускає його — автономно, без участі людини на кожному кроці. Як ми раніше писали, гонка за агентними можливостями стала головним трендом серед розробників ШІ-моделей у 2026 році.
До недавнього часу для серйозної агентної роботи потрібні були потужні хмарні моделі — і відповідна оплата. Тепер 26B MoE можна запустити на хорошому домашньому ПК з відеокартою і побудувати на її основі власного агента, який виконуватиме складні ланцюжки задач — приватно й безкоштовно.
Це суттєво знижує поріг входу для розробників та малого бізнесу.
Чому це важливо знати
Випуск Gemma 4 прискорює тренд, який змінює ринок ШІ: потужні моделі стають доступними не лише великим корпораціям, а й будь-кому з достатньо сильним ноутбуком. Поєднання відкритого коду, мультимодальності, великого контекстного вікна та ліцензії Apache 2.0 робить Gemma 4 серйозним інструментом для розробників, дослідників і підприємців — особливо тих, хто будує продукти там, де приватність даних критична або де постійна оплата хмарного API економічно невигідна.
Раніше ми писали
Як ми раніше писали, у 2026 році Anthropic підтвердила існування Claude Mythos — наступного покоління своїх моделей, витік даних про яке розкрив понад 3 000 внутрішніх матеріалів. А до цього — розповідали про закриття OpenAI Sora на тлі збитків понад мільйон доларів на день.

Медіаменеджер і автор-фрілансер з 1991 року. Займається креативним продакшном та розвитком медіа.
Усі статті автора →









