Hugging Face Skills: AI агенты теперь сами обучают LLM
Hugging Face релизнули Skills — Agent Context Protocol (ACP), через который упаковываются определения разных задач для ИИ агентов. По сути — это папки, в которых собраны инструкции, скрипты и ресурсы для использования ИИ-агентом под конкретный кейс. В каждой такой папке есть файл “SKILL.md” с YAML-фронтматтером (имя и описание) и далее текст с инструкциями, которым кодовый агент следует, пока этот скилл активен. Сама концепция повторяет Claude Skills (о чем Hugging Face открыто заявляет).
LLM обучает LLM
С помощью таких скиллов Hugging Face научили Claude обучению опенсорсных LLM моделей на опенсорсных датасетах.
Разберем, как это работает, на примере от Hugging Face:
-
Вы даёте агенту задачу дообучить модель на датасете: можно указать свой датасет или позволить ему найти подходящий самому.
Например вот таким промптом дается задача агенту по файн-тюнингу малыша Qwen3 на 0.6B параметров:Fine-tune Qwen3-0.6B on the open-r1/codeforces-cots dataset for instruction following.Объяснить код с -
Агент подбирает железо для обучения исходя из размера модели и проверяет датасет. В данном примере о�� подберет t4-small (наименьшая достаточная конфигурация, чтобы дообучить эту модель).
-
Обучение запускается на облачных GPU от Hugging Face. Перед запуском агент покажет конфигурацию (GPU, ожидаемое время обучения, стоимость, репозиторий где будет сохранена обученная модель).
I'll fine-tune Qwen/Qwen3-0.6B on open-r1/codeforces-cots using SFT. Configuration: - Hardware: t4-small (~$0.75/hour) - Estimated time: ~20 minutes - Estimated cost: ~$0.30 - Output: username/qwen-codeforces-cots-sft The model will be pushed to Hub automatically. Should I submit?Объяснить код с -
Агент стартует обучение и делится дашбордом с прогрессом в реальном времени через Trackio.
-
Чекпоинты отправляются в Hub (репозиторий моделей). Когда модель обучилась, она доступна в хабе, как после обычного обучения:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("username/qwen-codeforces-cots-sft")
tokenizer = AutoTokenizer.from_pretrained("username/qwen-codeforces-cots-sft")Объяснить код с
Красиво организовали, но как?
Hugging Face на текущий момент, пожалуй, крупнейшая международная платформа, которая предоставляет все сразу в одном месте:
-
железо для обучение
-
managed ML платформу и необходимые библиотеки
-
самую большую библиотеку опенсорс моделей
-
самую большую библиотеку опенсорс датасетов.
Такой фундамент дает компании преимущество даже перед гигантами типа Гугла, который связан своими корпоративными интересами по продвижению собственных моделей.
HF же настроен на расширение совместимости этих "скиллов" с как можно большим количеством вендоров моделей, способных управлять такими сложными агентами. Сейчас скиллы уже работают с:
-
Claude Code (через SKILLS.md)
-
OpenAI Codex (через AGENTS.md)
-
Gemini CLI (через gemini-extension.json)
На подходе Cursor, Windsurf и Continue.
Что еще может HF Skills?
На данный момент доступно всего 4 скилла:
|
Скилл |
Официальное описание |
Ссылка на SKILL.md |
|
hf_dataset_creator/ |
Промпты, фреймворки, скрипты для создания структурированных датасетов. |
|
|
hf_model_evaluation/ |
Инструкции и инструменты для оркестрации джобов по оценке моделей, генерированию отчетов, и маппинга метрик. |
|
|
hf-llm-trainer/ |
Скилл для оубчения моделей с гайдом в |
|
|
hf-paper-publisher/ |
Инструменты для публикации и управления исследовательскими статьями на Hugging Face Hub. Позволяет индексировать статьи из arXiv, линковать статьи с моделями и датасетами, генерировать сами статьи по шаблонам и управлять авторской принадлежность статей. |
Перечень скиллов очевидно будет расти сначала вокруг инфраструктуры самого Hugging Face.
Еще больше интересного и полезного про AI агентов без воды и простым языком — в моем телеграм канале Заместители. Там я тестирую AI агентов и сервисы, и рассказываю про самые актуальные и важные AI технологии, которые помогают с оптимизмом смотреть в будущее!