中关村在线

热点资讯

Meta公布MobileLLM 1.5B参数量大、性能强

11 月 8 日,Meta 公布了他们在智能手机上运行的 Small Language Model (MobileLLM) 家族的开源计划。他们新增了 600M、1B 和 1.5B 三种不同参数版本,这是为了适应用户对高效表现的需求。据 Meta 的研究人员介绍,MobileLLM 模型家族采用了精简架构,并引入了“SwiGLU activation function”和“grouped-query attention”机制,以实现兼顾效率与表现成果的目标。

与此同时,Meta 研究人员称,在32颗Nvidia A100 80G GPU服务器环境下进行的实验表明,MobileLLM 1.5B 版本仅需18天就能完成训练任务,而125M 版本只需3天。从结果来看,MobileLLM 125M和350M两款模型在零样本常识理解任务中的准确率比Cerebras、OPT、BLOOM等State of the Art(SOTA)模型分别高出2.7%和4.3%。

Meta的研究人员还表示,他们将MobileLLM-1.5B与其他业界参数量更大的模型进行了比较,并发现其在测试结果方面领先于GPT-neo-2.7B、OPT-2.7B、BLOOM-3B、Qwen 1.5-1.8B等模型。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具