Microsoft выпустила новую малую языковую модель под названием Phi-4-mini-flash-reasoning, главное преимущество которой заключается в расширенных возможностях логического мышления на устройствах с ограниченными ресурсами, будь то смартфоны, периферийные устройства или встраиваемые системы.
В основе новой модели семейства Phi лежит архитектура SambaY с ключевым элементом под названием Gated Memory Unit (GMU). Этот модуль обеспечивает эффективный обмен информацией между внутренними частями модели, что значительно повышает производительность даже при обработке очень длинных запросов и больших объемов текста.
Microsoft заявляет, что пропускная способность Phi-4-mini-flash-reasoning до 10 раз выше, чем у других моделей семейства Phi. На практике это означает, что за одно и то же время модель может обработать в 10 раз больше запросов или сгенерировать в 10 раз больше текста. Кроме этого, разработчикам удалось снизить задержку при генерации ответа в 2-3 раза.
Отмечается, что Phi-4-mini-flash-reasoning демонстрирует хорошие результаты в математике и структурированных рассуждениях, что делает ее ценным инструментом для образовательных технологий (EdTech), легковесных симуляций и автоматизированных систем оценки.
Компания считает, что новая модель будет особенно полезна в следующих областях:
Адаптивное обучение, где важна мгновенная обратная связь.
Рассуждающие агенты, работающие непосредственно на устройстве, например, мобильные учебные пособия.
Интерактивные системы обучения, которые динамически подстраивают сложность контента под успеваемость ученика.
Новая модель Phi-4-mini-flash-reasoning уже доступна для разработчиков на платформах Azure AI Foundry, в NVIDIA API Catalog и на Hugging Face.