中关村在线

热点资讯

DeepSeek联合北大发布条件记忆新论文并开源Engram模块

1月13日,DeepSeek发布一篇题为基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度的研究论文。该研究由北京大学与DeepSeek联合完成,作者名单中包括梁文锋。

论文提出了一种名为“条件记忆”的新机制,通过构建可扩展的查找式记忆结构,在保持模型参数量和计算资源不变的前提下,显著增强模型在知识检索、逻辑推理、编程及数学等任务中的表现能力。

与此同时,DeepSeek宣布开源其记忆模块Engram。该模块采用“查—算分离”的创新架构设计,引发业界关注。业内分析认为,Engram或将成为DeepSeek下一代V4模型的核心技术支撑。

有消息称,DeepSeek预计将在2月中旬、农历新年之前发布V4版本,但具体发布时间仍存在调整可能。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具