阿里ATH创新事业部研发的视频生成模型HappyHorse-1.0,于2026年4月15日正式启动公开测试,目前部署于Arena.ai平台,正处于正式发布前的最终优化阶段。
根据官方披露的早期评估数据,该模型在多项视频编辑任务中展现出显著优势,整体性能表现稳定,技术指标达到预期目标。预计将于两周后完成全部调优工作并发布正式版本。
内部确认,模型的API服务计划于2026年4月30日全面开放。现阶段已面向开发者社区开放早期体验通道,诚邀用户参与实测并提交使用反馈。
值得关注的是,该模型此前以匿名方式参与全球权威AI评测平台Artificial Analysis Video Arena的盲测,在文生视频与图生视频(不含音频)两大核心赛道中,综合得分超越字节跳动Seedance 2.0及快手可灵3.0,位列榜首。
HappyHorse-1.0基于150亿参数、40层结构的单流自注意力Transformer架构构建,首次实现音视频内容的原生同步生成。区别于传统视频生成模型需分步完成画面生成、音频合成、口型对齐等多重工序,本模型通过统一前向推理流程,一次性输出带音轨的完整视频,全程无需后期拼接或人工干预,大幅缩短生成周期,提升输出一致性。
模型原生支持七种语言的精准唇形同步,涵盖英语、普通话、粤语、日语、韩语、德语与法语,满足多语种场景下的高质量视频生成需求。

评论
更多评论