Январь 2026 года показал важную вещь. Сегодня идут споры о том, насколько искусственный интеллект способен удерживать целостную модель мира. Ещё недавно нейросети умели генерировать красивые видео. Но стоило в промпте попросить: «пройди вперёд», «оглянись», «вернись» — и прежняя сцена попросту пропадала.
Объекты «плыли», текстуры менялись, причинно-следственные связи исчезали. Сгенерированный мир не выдерживал движения камеры. Он не был моделью мира — он был просто иллюзией.
Теперь появляются open-source модели, которые создают управляемые миры в реальном времени. Можно двигаться, менять события, возвращаться к объектам — и всё остаётся на своих местах. Это первый шаг от простой генерации к симуляции мира.
Агенты тоже меняются. Раньше у них не было биографии. А без памяти о себе нет и саморазвития. Каждый новый день для них был как первый — настоящий «день сурка».
Теперь появляется Софья — агент с автобиографией, долгосрочной памятью и собственной мотивацией. Она запоминает ошибки, накапливает опыт и со временем меняет стратегии. Как будто по-настоящему взрослеет.
В программировании исчезает иллюзия автопилота. Лучшие разработчики не доверяют «вайб-кодингу». Они управляют агентами, проверяют шаги, задают рамки. Выигрывает не тот, у кого самый умный ИИ, а тот, кто умеет им управлять.
Сегодня ИИ учится без датасетов — придумывая задачи сам себе. Он начинает спорить сам с собой. Роботы учатся чувствовать глубину сцены и понимать, продвигаются ли они к цели. Агенты-оркестраторы координируют десятки субагентов, чтобы те не теряли контекст.
Говорят, что LLM — тупик. Но сами по себе языковые модели действительно не дают общего интеллекта. Интеллект появляется там, где есть память, цели, проверка данных и мультиагентная координация.
Это обзор лучших исследований января 2026 года. Поехали!
Ещё вчера нейросети умели просто генерировать ролики. Но мир не выдерживал движения камеры. Стоило попросить «пройди вперёд» и весь сгенерированный мир рассыпался.
Происходит переход от text-to-video к text-to-world. Это уже не последовательность кадров, а управляемая среда.
Новые open-source модели создают мир в реальном времени. Можно двигаться, крутить камеру, возвращаться к объектам — и сцена остаётся согласованной. Модель обучена на реальных видео, игровых записях и синтетических данных из Unreal Engine, где известны действия и параметры камеры.
Управление встроено прямо в нейросеть. Затем инференс ускорили почти до реального времени — задержка меньше секунды. В результате получается «почти игра»: длинная память, динамика, возможность менять погоду или события без разрушения сцены.
Код и веса открыты. Это ещё не идеальный цифровой мир. Но это прочный мост от генерации к настоящим моделям мира.
? Обзор статьи | ? Полная статья | ? Код | ? Модель
Современные агенты умны, но забывчивы. Они планируют, вызывают инструменты, решают задачи — но почти не помнят свою историю. Каждый день для них как первый.
Исследователи предложили архитектуру «Система-3». Если Система-1 действует, Система-2 рассуждает, то Система-3 следит за самим мышлением: хранит автобиографию, ставит долгосрочные цели, проверяет себя и формирует внутреннюю мотивацию.
Так появилась Софья. У неё есть эпизодическая память, модель пользователя, модель себя и гибридная награда — внешняя оценка плюс внутреннее любопытство. Она сохраняет успешные стратегии, учится на ошибках и постепенно меняет привычки.
В экспериментах Софья сокращала рассуждения на 80% в повторяющихся задачах и повышала успешность сложных задач примерно на 40%.
Это шаг к гиперперсонализированным агентам, которые живут в информационной среде, помнят, развиваются и со временем начинают действовать стратегически.
? Обзор статьи | ? Полная статья
ИИ-агенты уже умеют читать весь проект, менять файлы и запускать тесты. На словах — магия: описал задачу и получил код.
Это называют «вайб-кодингом»: доверился ИИ и ничего не проверяешь.
Но в реальной разработке так не работает. Опытные разработчики не отдают управление агенту. Они дробят задачи, заранее задают рамки, читают каждый pull request, запускают тесты и проверяют архитектуру.
Агент — не автопилот, а ускоритель рутины. Он отлично справляется с типовыми задачами. Но там, где нужны архитектурные решения и понимание домена, контроль остаётся у человека.
Выигрывает не тот, у кого самый умный агент, а тот, кто умеет им управлять.
? Обзор статьи | ? Полная статья
Агенты умеют чинить баги, но часто действуют так, будто никогда раньше не видели похожих проблем.
В реальности разработчик идёт в GitHub: читает задачу, pull request, обсуждения и смотрит, как другие уже решали такую же ошибку.
Исследователи предложили превратить GitHub в структурированную память. Реальные случаи исправлений преобразуются в «карточки опыта»: нормализованные симптомы, тип ошибки, сигналы, контекст — и отдельно логика решения, первопричина и стратегия фикса.
Это не сырой тред, а упакованный инженерный опыт.
Агент ищет итеративно, а не один раз как в обычном RAG. Он уточняет запросы и отбирает релевантные прецеденты, как живой инженер.
Результат — более +4% к решённым задачам на SWE-bench Verified.
Главная идея — коллективная память становится инженерным инструментом.
? Обзор статьи | ? Полная статья | ? Код
Можно ли учить ИИ без датасетов?
Absolute Zero Reasoner работает без внешних данных. Модель играет две роли: proposer создаёт задачу, solver её решает. Среда Python строго проверяет корректность. Если решение верно — начисляется награда.
Три режима обучения:
дедукция — вычислить результат;
абдукция — восстановить вход;
индукция — восстановить программу по примерам.
В результате — прирост 10–15% в математике и коде.
Главная идея: ресурс — не данные, а проверяемая среда. Модель учится не только решать, но и выбирать, чему учиться дальше.
? Обзор статьи | ? Полная статья
Большая часть проблем аналитики — не в моделях, а в данных. Форматы скачут, значения противоречат друг другу, колонки называются по-разному.
LLM помогают в трёх задачах:
Очистка — стандартизация дат, исправление ошибок, заполнение пропусков.
Интеграция — сопоставление сущностей между источниками.
Обогащение — аннотация колонок, профилирование таблиц, связывание с внешними знаниями.
Используются промпты, генерация кода и агентные пайплайны с инструментами. Но остаются риски: стоимость, галлюцинации и сложность оценки качества.
LLM не заменяют инженерную дисциплину. Они становятся слоем понимания смысла поверх сырых данных.
? Обзор статьи | ? Полная статья | ? Код
Когда задача тянется на десятки шагов, контекст раздувается, детали теряются, ошибки накапливаются. В мультиагентных системах добавляется ещё и лишняя «болтовня».
Решение — оркестратор. Он сам не действует в среде, а управляет: выбирает следующий шаг, передаёт контекст и создаёт субагента.
Каждый субагент динамически собирается из четырёх частей: инструкция, контекст, инструменты и модель. Под конкретную подзадачу — свой исполнитель.
Это снижает информационный шум, изолирует контекст и позволяет выбирать модель под бюджет.
На бенчмарках GAIA, TerminalBench и SWE-bench Verified — до 16% относительного прироста.
Агентам нужен не ещё один инструмент, а управляемая координация.
? Обзор статьи | ? Полная статья | ? Код
Рассуждающие модели сильнее не потому, что думают дольше, а потому что думают структурированно.
Внутри них возникает «общество»: один голос предлагает идею, другой сомневается, третий проверяет. В их рассуждениях появляются вопросы и ответы, смена позиций, внутренний спор и примирение.
Когда исследователи усиливали в activation space признак смены реплики, точность на сложной арифметике почти удваивалась. Ослабляли — она падала.
Это не просто корреляция, а управляемый фактор
Даже при обучении с подкреплением модель постепенно начинает спорить сама с собой.
Модели становятся умнее, когда начинают мыслить как полноценная команда.
хорошо у них получается действовать в нём.
? Обзор статьи | ? Полная статья
Роботу мало распознать объект на картинке. Нужно понять его положение в 3D, расстояние и траекторию движения, не задев окружающие объекты.
RoboBrain решает две задачи.
3D-мышление — предсказание координат и абсолютной глубины, построение траектории без столкновений.
Самоконтроль — оценка прогресса на каждом шаге. Продвигается ли задача или робот застрял? Если сигналы противоречат друг другу, система снижает доверие к оценке.
Это шаг к роботам, которые не только видят мир, но и понимают, насколько хорошо у них получается действовать в нём.
? Обзор статьи | ? Полная статья | ? Код
Часто говорят: из next-token prediction нельзя построить AGI.
Но проблема не в LLM. Проблема в отсутствии слоя координации.
LLM — мощная Система-1. Без Системы-2, которая ставит цели, держит план, подключает инструменты, проверяет шаги и управляет памятью, модель скатывается к общим ответам.
Рассуждение становится устойчивым, когда закреплено внешними опорами — фактами, проверками, инструментами. Ниже порога такого якорения модель блуждает. Выше — входит в целевой режим.
AGI здесь — это инженерия координации.
Общий интеллект рождается там, где система умеет управлять своими действиями в тексте, коде, 3D-среде и других модальностях — в едином пространстве смыслов.
Как писал Людвиг Витгенштейн: «Границы моего языка означают границы моего мира».
? Обзор статьи | ? Полная статья
Симуляции становятся управляемыми в реальном времени. Агенты получают биографию и долгосрочную внутреннюю мотивацию. Они подключаются к коллективной памяти. Учатся сами выбирать траекторию обучения и оркестрируют десятки субагентов. Роботы начинают понимать глубину мира и собственный прогресс.
LLM — фундамент. Но интеллект рождается там, где появляется координация между памятью и действием, между планом и контролем, между языком и мультимодальным миром.
Поэтому AGI — это не внезапное пробуждение ИИ. Это инженерия систем, способных жить в причинно-следственной информационной среде.
И, возможно, это и есть настоящая тихая революция.
***
Если вам интересна тема ИИ, подписывайтесь на мой Telegram-канал — там я регулярно делюсь инсайтами по внедрению ИИ в бизнес, запуску ИИ-стартапов и объясняю, как работают все эти ИИ-чудеса.