近日,微软推出了一款名为 Phi-4-mini-flash-reasoning 的小型语言模型,该模型在数学和逻辑推理方面表现出色,特别适用于端侧 AI 场景。
这一新模型的优势在于,即便是在边缘设备、移动应用或嵌入式系统等计算资源有限的环境下,也能实现强大的推理能力。这主要得益于其全新的架构设计,其中最引人注目的是引入了 SambaY 架构。这一架构的核心组件是 Gated Memory Unit(GMU),它可以高效地在模型内部不同部分之间共享信息,从而显著提升整体运行效率。
Phi-4-mini-flash-reasoning 能够快速生成响应并完成复杂任务,即便是面对超长输入文本也能轻松应对。此外,该模型还具备处理大量数据的能力,可精准理解较长的文本内容或对话历史。
从性能表现来看,Phi-4-mini-flash-reasoning 相比其他 Phi 系列模型也有明显进步。其吞吐量最高可提升至前代模型的 10 倍,意味着在相同时间内能够处理更多的任务请求或生成更大量的文本内容。与此同时,延迟大幅降低,仅为其他 Phi 模型的三分之一到二分之一之间。
目前,这款新型语言模型已在多个平台上开放获取,包括 Azure AI Foundry、NVIDIA API Catalog 和 Hugging Face。

评论
更多评论