
作者 | 王涵
编辑 | 冰倩
智东西 2 月 9 日报道,2 月 7 日,字节跳动 AI 视频生成模型 Seedance2.0 开启灰度测试,该模型支持文本、图片、视频、音频素材输入,可以完成自分镜和自运镜,镜头移动后人物特征能够保持一致。
字节 Seedance 团队释放出的飞书文档中介绍到,Seedance2.0 可精准还原参考图的画面构图、角色细节,可以复刻参考视频的镜头语言、复杂的动作节奏和创意特效。
其所生成的视频支持平滑延长与衔接,可按用户提示生成连续镜头。Seedance2.0 的编辑能力同步增强,支持对已有视频进行角色更替、删减、增加。
女士优雅地晒衣服(来源:Seedance 官方)
在海外社交平台 X 上,Seedance2.0 的讨论热度居高不下。一位学习了 7 年数字电影制作的网友在体验后说,这个模型(Seedance2.0)是唯一一个让他感到害怕的模型,电影行业的所有岗位几乎都要消失了。90% 他所学习到的技能,Seedance2.0 都能实现。


产品设计师、用户体验(UX/UI)设计师 Linus Ekenstam 看完 Seedance2.0 的案例后说:" 它会让互联网崩溃,百分之百。 "

游戏科学创始人兼 CEO、《黑神话 · 悟空》制作人冯骥在体验了 Seedance2.0 后还专门发了微博,称赞该模型为" 当前地表最强的视频生成模型。"并且很庆幸今天的 Seedance2.0 来自中国。但他也从其中看出了假视频泛滥与信任危机,因为 " 逼真的视频将变得毫无门槛。"
冯骥微博(来源:新浪微博)
但是Seedance2.0 也并不完美,在字节 Seedance 团队发出的飞书文档《Seedance2.0 使用手册》中,有用户在评论区中反映,使用同样的提示词和素材,生成的视频在精细化控制上却不太行。

并且在一个官方案例中,Seedance2.0 生成视频的中文字幕还是会出现老生常谈的中文乱码情况。

这个模型真的有这么 " 恐怖 " 吗?
智东西第一时间体验了 Seedance2.0,Seedance2.0 所生成的视频画风、场景和人物的一致性较高,不会发生畸变现象。模型可以根据其自己对剧情的理解添加运镜和剪辑,声效上也可以实现提示词和参考素材的要求。但在提示词较为简单或模糊的情况下,Seedance2.0 在动画人物的面部情感表达上还有些僵硬。
体验地址:
https://jimeng.jianying.com/ai-tool/home
一、能自动添加运镜,全模态素材均可参考
2025 年 12 月 16 日,Seedance1.5 pro 模型发布,在音视频联合生成、音画同步、多语言、运镜以及语言理解方面进行了提升。
Seedance2.0 预计在明天正式发布,目前在即梦 AI 官网可以充值会员付费体验,在小云雀 App 中则有三次免费体验机会。
Seedance2.0 支持文本、图片、视频和音频作为参考素材输入。用户可以同时给它最多9 张图片、3 段视频和 3 段音频作为参考,指定动作、运镜、人物、场景、特效、声效等,Seedance2.0 就可以根据参考材料和提示词要求,合成视频。但为了保护隐私,Seedance2.0 目前暂不支持上传包含写实真人脸部的图片素材。
Seedance2.0 可精准还原参考图的画面构图、角色细节,还支持镜头语言、复杂的动作节奏、创意特效的复刻。其所生成的视频支持平滑延长与衔接,可按用户提示生成连续镜头。
Seedance2.0 的编辑能力也同步增强,支持对已有视频进行角色更替、删减、增加。
如果没有参考素材也没关系,只需要一段简单的提示词,该模型就可以根据所描述的情节自动规划分镜以及运镜,还能在剧情需要的地方实现慢动作、镜头摇晃等效果。
在一致性上,Seedance2.0 在生成视频的同时就可以生成匹配的音效和配乐,并且支持口型同步和情绪匹配。
Seedance2.0 所生成视频中的角色和场景还可以在多个镜头之间保持一致性,用户可以用该模型生成一段包含多个镜头切换的完整片段。
二、体验:人物场景一致性高,汗水洒落可以 " 以假乱真 "
智东西上手体验了 Seedance2.0 模型,主要考察模型的自运镜、角色场景一致性和角色替换方面的能力。
Seedance2.0 所生成的视频画风、场景和人物的一致性较高,不会发生畸变现象。模型可以根据其自己对剧情的理解添加运镜和剪辑,声效上也可以实现提示词和参考素材的要求。但在提示词较为简单或模糊的情况下,Seedance2.0 在动画人物的面部情感表达上还有些僵硬。
首先,我们输入提示词:
特写,焦距 50mm,扎马尾的女生坐在窗边,微笑时有梨涡,在咖啡厅的桌面上的笔记本上写着什么,偶尔有思考的停顿,背景虚化呈现,咖啡馆的木质桌沿,柔光打在面部,突出轻松的氛围,咖啡厅中放着钢琴曲。
Seedance2.0 生成的视频如下:
咖啡厅女孩生成片段(来源:智东西体验)
在生成速度上,Seedance2.0 生成一段 10 秒的视频需要 5 分钟左右。从视频的画面上来看,在提示词没有说如何运镜的情况下,该模型自动在开头加了一个渐进的运镜,让画面剧情更加自然和流畅。在渐进的过程中,画面中的人物、场景都没有发生畸变,保持了一致性。
Seedance 2.0 也可以很准确地还原国漫风,我们上传了一张国风动漫角色图,要求 Seedance2.0 参考图片,生成一段人物自述片段。

Seedance 2.0 生成的视频就像是某个游戏的过场 CG 动画,视频的画风和人物特点都与素材图片一致,随风飘动的丝带和花瓣边缘轮廓清晰,运动轨迹合乎常理,人物的嘴型和台词也可以对得上。
但是,在人物情绪的表达上,视频中人物的面部肌肉没有明显的变化,情绪表达不够饱满。
国漫生成片段(来源:智东西体验)
最近,一个韩国 AI 小狗接受采访的视频非常火,我们将视频截图发给 Seedance2.0,让它将原图中的小狗换成小猫。

可以看到,Seedance2.0 生成的视频很完整地保留了参考素材的风格,给小猫穿上了睡衣,并且让小猫双手张开,并不是简单地换头,小三花猫没有被睡衣覆盖的肚子部分也还原了真实小猫崽肚子的质感。
而且,在音频上,Seedance2.0 也准确地实现了提示词中所说的 25 岁女记者和小孩的声线。
AI 小猫生成片段(来源:智东西体验)
自媒体博主冰河用 Lovart 的 Skill 生成分镜故事板,直接复制到 Seedance2.0 中,他说该模型所生成的视频比他用 ComfyUI 做的还细致。
自媒体博主冰河制作视频片段(来源:X)
AIGC 艺术家 DynamicWang 用 Seedance2.0 制作了一个模仿 Nike 品牌广告风格的短片,短片中共出现了四位不同族裔的女性,每一位角色的身材和肌肉线条都很符合其所进行的运动的标准,且镜头角度变动后,角色的脸部特征依旧保持一致。
短片中的运镜也十分自然,没有拼接痕迹,慢动作、角度移动的位置都很准确,符合剧情需要。
从第一位体操女孩流畅的翻转跳跃可以看到,Seedance2.0 直接攻破了 "AI 生成不了体操视频 " 这个难题。拳击女生和跑步女生的汗水以及游泳女生溅起的水花,都没有了此前 AI 生成的" 黏腻感 "。
DynamicWang 制作视频
在小云雀 App 中,有不少用户都上传了自己用 Seedance2.0 生成的视频片段。
有李小龙对战日本武士:
用户体验案例(来源:小云雀 App)
真人版七龙珠:
用户体验案例(来源:小云雀 App)
还有仙侠竹林对决:
用户体验案例(来源:小云雀 App)
结语:Seedance2.0 降低表达门槛,但提高了对创作者的叙事能力要求
从各路大神的体验、官方案例以及智东西自己的体验视频看下来,Seedance2.0 最突出的就是运镜和剪辑能力以及人物和场景的一致性。但其在情感表达的细腻度、中文文本的呈现等方面仍有提升空间。
从这一点看,或许 Seedance2.0 还不足以彻底改变影视界,但 Seedance2.0 的出现,无疑降低了专业表达的门槛,让更多人有工具可以将想法可视化。
同时,此类 AI 视频制作模型也可能加剧内容市场的同质化竞争,并对创作者的原创性、审美和叙事能力提出更高要求。