Google продолжает прокачивать линейку Gemini и сегодня выкатила Gemini 3.1 Pro — модель, которую позиционируют как «базовую умную силу» для задач, где обычного ответа «вот ссылка / вот краткий совет» уже не хватает. Речь про многошаговые рассуждения, сведение данных в единую картину, объяснения сложных тем «с картинкой в голове» и генерацию более «инженерного» результата, а не просто текста.
Неделю назад Google обновила Gemini 3 Deep Think — их режим/ветку для более «тяжёлых» научно‑инженерных сценариев. Теперь компания говорит, что 3.1 Pro — это как раз обновлённая «ядровая интеллект‑часть», которая и сделала возможными улучшения Deep Think. Проще: Deep Think — это про режим/подход, а 3.1 Pro — про свежую базовую модель, которую начнут раздавать шире.
Что именно обновили (по заявлению Google) — упор в «core reasoning», то есть в способность стабильно решать новые, непривычные логические паттерны. В качестве флага они выносят результат на ARC‑AGI-2: 77,1% verified score, и утверждают, что это «более чем вдвое» лучше, чем у Gemini 3 Pro. ARC‑AGI-2 любят именно за то, что он проверяет не «натасканность на типовые задачки», а умение сообразить новую логику.
Роллаут начинается «сегодня», но с классической оговоркой «preview». Доступ обещают сразу в нескольких слоях экосистемы:
— Разработчикам (preview): Gemini API в Google AI Studio, Gemini CLI, agentic‑платформа Google Antigravity, а также интеграции для Android Studio.
— Enterprise: через Vertex AI и Gemini Enterprise.
— Пользователям: через приложение Gemini и NotebookLM (там, по тексту анонса, доступ завязан на подписки Pro/Ultra и повышенные лимиты).
Из прикладных примеров в анонсе выделяется довольно «разработческая» фича: генерация анимированных SVG «в коде» по текстовому запросу. Месседж тут понятный: если анимация — это код, а не видео/пиксели, то она масштабируется без мыла и весит заметно меньше. В целом это продолжение тренда: модели соревнуются не только в том, как красиво болтать, но и в том, как отдавать артефакты, которые можно сразу тащить в репозиторий.
Google прямо пишет, что выпускает 3.1 Pro в preview, чтобы «валидировать апдейт» и параллельно продолжать улучшения, особенно в сторону agentic‑workflows (когда модель не просто отвечает, а планирует и выполняет цепочку шагов в инструментах). Общая доступность обещана «скоро».
Если переводить на человеческий: Google делает ставку на то, что 3.1 Pro станет новой «рабочей лошадью» для сложных задач в продуктах и дев‑инструментах, а не только витринной моделью для бенчмарков.
Практические курсы по нейросетям от экспертов —в каталоге. Подберите трек под свою роль: от базовой подготовки до продакшен-задач.
Для знакомства с форматом обучения и экспертами приходите на бесплатные демо-уроки:
24 февраля 19:00. «Обзор фреймворков для создания агентов». Записаться
25 февраля 20:00. «Data Drift в машинном обучении: почему модели деградируют в продакшене и как это контролировать». Записаться
26 февраля 20:00. «Продвинутые техники RAG и введение в GraphRAG». Записаться