Microsoft представила новую ИИ-модель Phi-4-mini-flash-reasoning, обеспечивающую расширенные возможности рассуждений для периферийных и мобильных устройств, а также сред с ограниченными вычислительными ресурсами. Благодаря использованию новой гибридной архитектуры SambaY, модель работает до 10 раз быстрее по сравнению с другими моделями семейства Microsoft Phi и демонстрирует в 2–3 раза меньшую задержку.
Phi-4-mini-flash-reasoning — это модель с 3,8 млрд параметров и открытым исходным кодом, оптимизированная для выполнения сложных математических рассуждений. Она поддерживает контекст длиной до 64 тыс. токенов и обучена на высококачественных синтетических данных, обеспечивая надёжное и производительное развёртывание с интенсивным использованием логики. Как и все модели семейства Phi, Phi-4-mini-flash-reasoning может быть развёрнута на одном графическом процессоре.
Ключевой особенностью архитектуры SambaY является Gated Memory Unit (GMU) — простой, но эффективный механизм обмена представлениями между компонентами модели. Использование модулей GMU существенно повышает эффективность декодирования и ускоряет поиск по длинному контексту, что обеспечивает высокую производительность в широком спектре задач и позволяет значительно ускорить инференс без потери качества рассуждений.
В Microsoft утверждают, что новая ИИ-модель может использоваться в платформах адаптивного обучения, где критически важны циклы обратной связи в реальном времени, в качестве агентов с возможностями рассуждения на базе периферийных устройств, а также в интерактивных образовательных системах, которые динамически корректируют сложность контента в зависимости от успеваемости учащихся.
Компания подчёркивает, что высокая эффективность модели в области математики и структурированного мышления делает её особенно ценной для образовательных технологий, простых симуляций и автоматизированных инструментов оценки, требующих надёжного инференса с минимальным временем отклика.
Модель Microsoft Phi-4-mini-flash-reasoning доступна на платформе Hugging Face.