字节跳动近日正式上线了新一代视频生成模型Seedance2.0,并将其接入旗下生成式AI创作平台即梦以及豆包App。这款视频生成模型凭借逼真的画面效果和简易的创作方式迅速走红。美国企业家埃隆·马斯克在海外社交平台上转发了相关演示并评论称,这一模型“进展太快”。
用户只需输入简单的文字、图片或视频素材,就能通过Seedance2.0生成几秒甚至十几秒的视频。与过去的AI视频模型相比,它的生成效果显著提升,画面更精准、更逼真,可控性也更强。这不仅大幅降低了视频创作的门槛,还吸引了许多普通用户和影视行业从业者的关注。
Seedance2.0采用了统一的多模态音视频联合生成架构,能够理解用户输入的内容,参考画面构图、镜头语言、动作节奏等元素来生成视频,使普通用户也能像导演一样进行视频创作。清华大学新闻与传播学院人工智能学院双聘教授沈阳表示,该模型可以在表演细节、灯光、相机运动等方面实现电影级别的精确控制,保持物理一致性,并显著提高工作流效率,一个人就可以完成从脚本到成品的过程,大大降低了成本和门槛。
火山引擎总裁谭待提到,全球用户对Seedance2.0的反响非常强烈,每天都有大量用户来体验。这款模型在训练阶段使用了大量东方美学素材,在镜头语言控制和复杂交互呈现方面表现出色。早在正式推出之前,Seedance2.0就已经被用于多个春晚节目的视觉制作环节,成为其第一个客户。