Братство нейросети: итоги сезона «ИИ в разработке»
Этой зимой на Хабре говорили о том, как искусственный интеллект показывает себя в реальной разработке и повседневных задачах. Участники сезона «ИИ в разработке» пробовали ИИ в самых разных ролях: от экзаменационного ассистента до соавтора open source проектов. Наши герои создавали игру для ребёнка с помощью ИИ (отдельный респект за попытку объяснить шестилетнему ребёнку схему разработки), вайб-кодили инструмент для поиска снимков в собственном фотоархиве (разобрать фото — наверняка боль для многих…), проектировали вибрационный вариометр для парапланеризма.
Где‑то ИИ честно экономил десятки часов и помогал одному человеку тянуть проекты «на уровне команды», а где‑то превращал разработку в шаманство с бубном, обнулял оценки в экзаменационной ведомости и выключал аэродинамику одной строкой.
Пришло время подвести итоги!
Статистика сезона и какие модели использовали участники
Участники сезона «ИИ в разработке» представили много самых разных примеров использования искусственного интеллекта, рассказали об интересных проектах, но победителями стали лишь 15 авторов. Чем же они пользовались в работе? Посмотрим на статистику упоминаний среди статей победителей:
-
Qwen (27)
-
Claude (24)
-
Cursor (17)
-
GigaChat (14)
-
OpenAI (12)
-
DeepSeek (11)
-
GigaAM (10)
-
Gemini (9)
Отдельной линией сезона стало практическое использование отечественных открытых моделей — не в лабораторных условиях, а в реальных сценариях разработки. Накануне старта сезона Сбер выкатил веса моделей в открытый доступ. В open source ушли GigaChat 3 Ultra Preview на 702B параметров, подходящая для локального использования в качестве ассистента GigaChat Lightning, набор из пяти моделей для распознавания речи GigaAM-v3, Kandinsky 5.0 и Автокодировщик K-VAE 1.0 для ускорения генеративного AI.
Одним из первых @konstantin_kozhin захотел проверить их в реальном сценарии. Так, он разработал Telegram-бота для преобразования голосовых сообщений в текст, использовав модель GigaAM-v3. Почему бы, собственно, не воспользоваться расшифровщиком в премиум-аккаунте в ТГ? Потому что он не работает с произвольными файлами и не способен «переварить» длинные сообщения.
А хабрапользователь @golangloves протестировал версию Lightning, сравнил бенчмарки с Qwen и показал, как запустить модель без затрат на железо. Автор отметил, что для задач на русском языке и работы с длинными контекстами Lightning — одна из лучших открытых моделей в своём классе. Вот здесь можно почитать результаты эксперимента. Статьи @konstantin_kozhin и @golangloves вошли в топ-15 лучших в сезоне по рейтингу.
Наши победители сумели вовлечь хабрапользователей в активное обсуждение темы. Именно признание сообщества — главная ценность сезона. Комментаторы на Хабре традиционно выступили в роли ревью-комитета, и часть проектов стала лучше именно благодаря участию сообщества: здесь подсказывали, спорили, совершенствовали код, помогали доводить проекты до ума. Но есть и материальные призы: топ-5 авторов получат по 50 000 рублей, ещё 10 участников — по 25 000 рублей.
Суммарно статьи собрали 808 плюсов, 1281 добавление в избранное и 632 комментария.
Под спойлером — таблица со всеми статьями сезона, упорядоченными по рейтингу.
Рассмотрим подробнее лидеров рейтинга и о чём они успели написать за прошедшие два месяца.
Топ-5 победителей сезона
Джун наоборот
Притчей во языцех стало мнение о том, что ИИ работает как джуниор-разработчик. С этим категорически не согласен хабрапользователь @master_program. Для него ИИ — всё-таки джун наоборот. Чтобы доказать это, автор попытался создать код для решения задачи моделирования полёта ракеты в атмосфере. ИИ сгенерировал код, но при перепроверке не смог найти большую часть ошибок. Кроме того, написал аэродинамику и выключил её сам. Подробности — в статье Джун наоборот или разоблачение главного мифа вайб-кодинга.
В геймдев с двух ног
А вот @Lkalyadin10 доказал, что ИИ — это джун. Когда его шестилетняя дочка, которая любит проходить лабиринты, не хотела ложиться спать, он начал разработку собственной игры для неё. Игра выстрелила в топе приложений для Android TV. Как у автора это получилось, читайте в статье Страх и ненависть вайб-кодинга: как я сделал для ребенка игру и попал в топ приложений на android-TV. Приятно, что сезон получился полезным и познавательным не только для авторского сообщества, но и для малышей!
Ни капли в рот, ни буквы в код
Представьте, что вы преподаватель и каждый раз заполняете десятки бумажных ведомостей. Пользователь @fedignat решил заменить их android‑приложением для приёма экзаменов и выставления оценок, учёта пересдачи и фиксации IP машины студента, если он работает с компьютера в аудитории. Сначала вайб-кодинг удавался, но в час X во время приёма экзамена первая же оценка просто исчезла. Кейс показал: без понимания разработки даже с ИИ создать надёжный продукт сложно. Так что «эра индивидуальных приложений» ещё не наступила. Читайте подробнее в статье Вайбанутым нет покоя.
Дружба народов
Команда, в которую входит автор @snakers4, провела титаническую работу: после выбора 20 языков собрала голоса носителей на родном и на русском, а затем создала ПО для синтеза речи на этих языках. Теперь любой голос в модели может говорить на всех поддержанных языках. Подробнее о проекте читайте в статье: Мы опубликовали стабильный, быстрый, качественный и доступный синтез для 20 языков России.
Мой параплан, мой парапла-а-ан…
От программных проектов — к «железу». Пользователь @gliderman решил превратить часы в вибровариометр. Парапланеристы используют вариометры для измерения вертикальной скорости параплана, и не всем нравится, как они пищат. В своём проекте @gliderman решил исправить это, чтобы вместо звука часы подавали тактильный сигнал, вибрировали. Так пилот сможет наслаждаться шумом ветра, а не раздражаться от писка. Что получилась, читайте в статье Вайб вместо звука: как я за вечер собрал вибровариометр на ESP32, а Gemini и ко сгенерировали всё, кроме пайки. Как обычно на Хабре, комментарии имеют огромную ценность: ряд проблем с устройством помогли решить другие пользователи.
Топ-15 победителей сезона
Авторы следующих 10 статей по списку получат по 25 000 рублей. На шестом месте рейтинга – @Ser_no который разбирается, почему разработчики заливают в промпт целые книги, логи за неделю и дампы баз данных, а на выходе получают галлюцинации и «кашу», почему «поддерживаемый контекст» ≠ «рабочий контекст», что такое Context Rot (гниение контекста) и как с этим жить.
Автор @rdudov рассказал о мультиагентной разработке в Cursor. В Claude Code есть субагенты: экземпляры того же агента, но с фиксированным промптом и чёткими входными данными. Но не всё так радужно — в Claude Code есть vendor lock на модели Anthropic, а доступ к некоторым моделям дают только дорогие тарифы. Автор разбирал, как такой подход можно запустить в Cursor.
Давно ли вы пытались разобрать ваши снимки, сделанные хотя бы за один год? Или за один отпуск… @virex для решения этой проблемы написал поиск в личном архиве по текстовому описанию. Статья — по ссылке.
@rsashka расшифровывает ИИ не как «искусственный интеллект», а как «иллюзия интеллекта». Его поражает, как можно спорить: есть ли у LLM интеллект, или это всего лишь математические вычисления по определённому алгоритму. Автор считает, что нет смысла создавать рассуждающую иллюзию интеллекта, потому что «имитация разума превращает потенциально полезный рабочий инструмент в игру на бубне без каких-либо гарантий качества и воспроизводимости полученных результатов».
@Dmitrii-Chashchin подготовил чек-лист для разработчика, который способен помочь ИИ не топтаться на месте, создавая выдуманные переменные, кучу дублей файлов и добавляя баги. Автор рассказывает, как создать агента, способного следить за проектом и грамотно фиксить код.
Пришло время добавить немного космоса. В этом нам поможет @Dorial любитель-астроном наблюдает за 3I/ATLAS, получает свежие фото и FITS-файлы и анализирует спектр 3I/ATLAS с помощью собственного Python-pipeline. Автор рассказал, как ИИ открывает двери в науку всем желающим.
Суть метода Mixture-of-Experts: перестать «думать» всей нейросетью над каждой задачей и научить модель активировать ресурсы выборочно. Автор @full_moon рассказал о том, как работает эта архитектура, какой путь прошла за последние годы, и задаёт нам вопрос: действительно ли за МоЕ будущее или её роль сильно переоценена?
@CyberexTech решил реализовать сервис машинного закадрового перевода видео с помощью общедоступных моделей с локальным запуском. По ссылке в статье посмотрите, что получилось, на примере интервью с Томом Холландом. Интересно, что для проекта использована модель для синтеза Silero Speech, то есть продукт команды, статья которой заняла четвёртое место в этом сезоне.
Подводим итоги
Сезон «ИИ в разработке» наглядно показал: сообществу интересен не сам по себе искусственный интеллект, а его практическая применимость. Наибольшую вовлечённость получили инженерные кейсы, когда ИИ встраивается в реальный процесс разработки со всеми его ограничениями. Границы технологий стали заметнее. ИИ сегодня способен ускорять работу, но легко теряет контекст и не умеет отвечать за результат. Чем выше цена ошибки, тем критичнее роль человека.
Ещё один устойчивый тренд сезона — гибридный подход. Авторы редко ограничивались одним инструментом: одну модель использовали для генерации кода, другую — для анализа и ревью, третью — для речи и изображений. Отдельно стоит отметить роль отечественных моделей. В рамках сезона веса GigaChat использовались как полноценные рабочие инструменты: авторы запускали их локально, встраивали в собственные пайплайны, сравнивали с зарубежными аналогами и отмечали сильные стороны — прежде всего в задачах на русском языке, работе с длинными контекстами, воспроизводимости и контроле над инфраструктурой.
Сезон «ИИ в разработке» завершён. Но разговор о том, как именно и зачем мы используем искусственный интеллект, только начинается. И опыт, которым вы поделились, — в виде кода, проектов и собственных выводов — останется с сообществом навсегда.