中关村在线

热点资讯

深耕AI技术落地,Soul张璐带领团队推动实时数字人迈入亚秒级时代

近期,Soul App AI团队(Soul AI Lab)在创始人Soul张璐的带领下正式开源了实时数字人生成模型SoulX-FlashTalk——这是业内首个实现0.87秒亚秒级超低延时、32fps高帧率,并支持超长视频稳定生成的14B参数量数字人模型。这一突破不仅刷新了实时数字人生成的技术边界,更标志着大模型在实际业务场景中的落地能力迈上新台阶。

谈到SoulX-FlashTalk的亮点,首先不得不提的是它在四个关键指标上的突破,这些突破重塑了实时互动体验的新标准。首要的是其0.87秒的亚秒级延迟,这种即时交互的能力为用户带来了前所未有的体验。特别是在实时视频交流中,低延迟的重要性不言而喻。SoulX-FlashTalk通过全栈加速引擎的极致优化,成功将首帧视频输出的延时降至历史最低点,首次让14B级别的大模型数字人具备了即时反应能力,彻底消除了传统大模型生成的滞后感。无论是视频通话中的即时对答、直播间弹幕的秒级互动,还是智能客服的实时响应,均能实现自然流畅的深度对话。

不仅如此,SoulX-FlashTalk还以32fps的高帧率重新定义了“流畅”。尽管搭载了14B参数量的超大DiT模型,该系统仍能保持高效的推理吞吐量。这远超直播所需的25 FPS实时标准,确保每一帧画面都丝滑顺畅。同时,这也证明了经过深度加速优化后的大模型依然能够拥有极佳的运行效率,为未来的AI应用提供了无限可能。

面对数字人视频中最常见的问题——人物面部不一致或显著画质下降,SoulX-FlashTalk采用了独家的自纠正双向蒸馏技术来解决这些问题。引入多步回溯自纠正机制,模拟长序列生成的误差传播并进行实时修正,就像为AI装上了“实时校准器”,主动恢复受损特征。这样不仅能保证超长视频的稳定清晰生成,还能从根本上压制身份漂移现象,确保主播的口型、面部细节和背景环境始终保持一致。

除此之外,SoulX-FlashTalk还突破了传统数字人仅能实现面部“对口型”的局限,带来了更加真实自然的全身肢体动态表现。不同于以往仅对面部进行局部重绘的方案,SoulX-FlashTalk支持音频驱动的全身动作生成,可产生真实自然的人体动态。基于14B DiT的强大建模能力,系统能够有效消除手部畸形与运动模糊,精准呈现结构清晰、纹理锐利的手部动作细节。这样的设计既增加了视觉的真实感,也提升了用户的沉浸体验。

为了平衡生成质量与推理速度,SoulX-FlashTalk团队采取了一系列创新措施,包括两阶段训练策略和一系列针对硬件优化的技术手段。这些努力不仅提高了模型的性能,也为实际业务场景的应用打下了坚实的基础。

随着SoulX-FlashTalk的开源,它有望在电商、短视频制作、AI教育等多个领域创造巨大价值,推动行业的进一步发展。Soul在创始人张璐的带领下聚焦AI能力的建设,打造真正可用、好用、值得信赖的生成式系统,携手行业伙伴共同开拓实时数字人商业化的新边界。

展开全文
人赞过该文
内容纠错

相关电商优惠

评论

更多评论
还没有人评论~ 快来抢沙发吧~

读过此文的还读过

点击加载更多

内容相关产品

说点什么吧~ 0

发评论,赚金豆

收藏 0 分享
首页查报价问答论坛下载手机笔记本游戏硬件数码影音家用电器办公打印 更多

更多频道

频道导航
辅助工具