腾讯今日宣布,其混元大模型已正式上线并开源文生视频能力,该模型参数量高达130亿,支持中英文双语输入。
据官方介绍,混元视频生成大模型能够生成“超写实”的高质量视频,画面稳定不易变形。在镜面场景中,该模型能够实现镜面反射动作与外部场景完全同步,光影反射效果符合物理规律。
腾讯混元视频生成大模型采用DiT架构,并适配了新一代文本编码器,以提升语义理解能力,更好地应对多个主体描绘,实现更细致的指令和画面呈现。
本次开源包含完整的模型权重、推理代码和算法,供企业与个人开发者免费使用,并鼓励开发生态插件,推动AI技术的进一步发展。
在今年9月份,腾讯在全球数字生态大会上发布混元Turbo大模型。
据腾讯集团副总裁、云与智慧产业事业群COO、腾讯云总裁邱跃鹏介绍,混元TUrbo采用万亿级层间异构MoE(混合专家模型),推理效率比上一代提升100%,推理成本下降50%,解码速度增加20%,在中文场景对标GPT-4o。
与混元Pro相比,混元Turbo价格降低50%。混元Pro输入、输出价格分别为0.03元/千tokens、0.1元/千tokens,混元Turbo输入、输出价格分别为0.015元/千tokens、0.05元/千tokens。
11月5日,腾讯混元宣布最新的MoE模型“混元Large“以及混元3D生成大模型“Hunyuan3D-1.0”正式开源,支持企业及开发者精调、部署等不同场景的使用需求,可在HuggingFace、Github等技术社区直接下载,免费可商用。
评论