OpenAI最新发布了首个文生视频模型Sora,并展示了其制作的几段演示视频。该模型可以根据文本指令创建现实且富有想象力的场景。
OpenAI在其官网上表示,Sora是一个AI模型,旨在帮助人们解决需要现实世界交互的问题。他们正在训练模型来理解并模拟物理世界中的运动规律。
该公司隆重介绍了Sora这个文本转视频模型,它可以生成长达一分钟的视频,并在保持视觉质量和遵守用户提示的前提下进行操作。
在展示的视频中,所有内容都是由Sora直接生成的,未经过任何修改。这段视频展现了一个时尚女性走在东京街道上的画面。她穿着黑色皮夹克、红色长裙和黑色靴子,提着一个黑色钱包,并佩戴着太阳镜和涂了红色口红。
这位女性行走时散发着自信又随意的气质。周围环境湿润反光,在彩色灯光照射下形成了镜面效果。背景中行人络绎不绝。
更令人赞叹的是视频后半部分呈现出来的面部细节,这位时尚女性面部的毛孔和瑕疵清晰可见,展现出令人惊叹的质量。
总结起来,Sora这款文生视频模型具备了创造现实而富有创意场景的能力,并且其生成的视频图像质量极高,令人印象深刻。
评论