概括:本文分享Seedance 2.0高效使用心得,详解多模态输入组合、@引用机制、提示词四技巧及人脸限制绕行方案,助你快速上手生成视频。
我是阿木易,一个正在研究AI编程的设计师🎨,想自己造点不一样的东西。👀
上周刷X,时间线被同一个东西霸屏了,啧啧。。。
简直太疯狂了,我们也可以说有一个出圈的世界第一模型了~
是什么呢?
那就是字节跳动的即梦出的新模型,叫 Seedance 2.0。
我当时的反应是:又一个AI视频工具?能比之前那些强到哪去?
然后我打开即梦试了一下。
卧槽,我只能说,emmm...确实不一样。
我花了一整天,把X上散落的各路技巧全扒了一遍,自己又跑了十几个案例。这篇把最核心的东西整理出来,看完你就能上手。
1. 先搞懂它为什么不一样:多模态 ≠ 文生视频
以前的AI视频工具,你只能打一段文字描述,然后等结果。效果好不好,全看运气。
Seedance 2.0 不一样,它支持四种输入自由组合:
图片:最多9张,定义角色长相、场景风格、产品外观
视频:最多3个(总时长15秒以内),让模型参考运镜方式、动作节奏
音频:最多3个MP3(总时长15秒以内),指定配乐、音效、音色
文字:自然语言描述画面和动作
四种输入混合上传,总共不超过12个文件,生成4到15秒的视频,自带音效和配乐。
怎么理解这个区别呢?
以前是给AI发了条微信语音,让它自己猜你想要什么。现在是给AI递了一份分镜脚本,图、声、画全给到位了,它照着拍就行。
2. @引用机制:这是 Seedance 2.0 最核心的操作
上传完素材之后,你要在提示词里用 @素材名 告诉模型,每个素材具体干什么用。
模型不会自己猜。你不说清楚,它就可能乱用,甚至直接忽略。
这是我踩的第一个坑:兴冲冲上传了图片和视频,提示词里没写任何@引用。结果生成出来的效果,跟纯文字生成没什么区别。白传了。
@的写法示例:
怎么输入@呢?在提示词输入框里直接打一个 @ 字符,会自动弹出你已上传的素材列表,点一下就插入了。
最大的坑,再说一遍:上传了素材但提示词里没有@引用 = 白传。写完提示词后花10秒检查一遍每个@有没有对上号,别把图片A标成图片B。
3. 提示词四大写法,可直接复制
官方手册里给了一个黄金公式(官方手册放文末了哈):
@素材 + 用途说明 + 具体画面描述 + 时间线
在这个基础上,有4个技巧能让效果显著提升:
技巧1:按时间线分段写
不要笼统地写一大段描述,按秒数拆开。模型能更精准地控制每段画面的节奏。
技巧2:区分 参考 和 编辑
这两个词意思不一样。
参考@视频1的运镜 = 借鉴它的镜头运动方式,生成新内容
将@视频1中的女生换成花旦 = 在原视频基础上做修改
写清楚,模型才能正确执行。
技巧3:镜头语言写具体
推、拉、摇、移、跟拍、环绕、俯拍、仰拍、一镜到底、希区柯克变焦… 这些专业术语模型都认识。
不懂术语也没关系,用大白话写也行,比如镜头从背后慢慢转到正面。
技巧4:连续动作加过渡
如果想让角色做一串连贯动作,把动作一个接一个罗列就行。
模型会自动处理动作之间的过渡。记得加程度副词强化表现力,快速、猛地、缓缓、猛烈这些词能让效果差很多。
4. 两个入口怎么选 + 人脸限制怎么绕
打开即梦的官网链接,就是下面这个
地址:https://jimeng.jianying.com/
你会看到两个入口:
首尾帧入口:只有一张图 + 文字的时候用
全能参考入口:有多种素材要组合的时候用
记住一条:只要你的素材不止一张图,或者有视频、音频参与,就选全能参考。大部分时候直接选全能参考就对了。
关于人脸限制
这是目前最多人问的问题。Seedance 2.0 前几天暂停了真人面部上传功能,你直接上传一张写实人脸照片做参考,大概率会被拦截。
不过有几种方式可以绕过去:
用非写实画风生成角色图:在即梦里先用文生图功能,生成一张概念art风格或插画风格的角色图。关键词加上概念设计、概念艺术风格或数字插画风格,出来的图就不是写实人脸,上传不会被拦
用非现代服装的角色:铠甲、古装、奇幻服饰的角色,实测可以通过
纯文字描述角色:不上传人脸图,在提示词里用文字描述角色外观,模型自己生成
产品图和场景图完全不受影响,随便传。
5. 看看效果:我的实测 + X上刷到的案例
光讲理论没意思,直接看东西。
我自己的实测:角色动画
我用即梦文生图先生成了一张武士角色的概念art图(就是前面说的绕过人脸限制那招),然后拿来做视频。
纯文字版提示词:
加了@图片引用的增强版:
两个版本的差距很明显。纯文字版每次抽卡生成出来的武士长得都不一样,镜头运动也比较随意。加了@图片之后,角色的铠甲样式、发型、体态从头到尾都是一致的,官方这种的时间线分段也让镜头运动更可控了。
给大家看下两个操作方法和这两种写法的提示词差别吧:
纯文字版:
加了@图片和变换了时间线分段的提示词之后
可以看到这两种操作的区别还是很大的,明显下面的操作更精准能识别我们的提示词。
那这样的话,整体画面更可控,关键是能用自己生成的好看的角色(小声比比:那纯文字生成的人物也太丑了,哈哈)
X上刷到的案例,给你感受一下天花板
我这几天在X上刷到的作品,有些效果已经离谱了。分享几个让我印象最深的:
AI带货视频
@johnAGI168 做了一条抖音带货视频,有人评论说比真人主播还好看。产品展示 + 场景切换 + 自带配乐,全程不需要真人出镜。
对做电商的人来说,这个能力太实用了。以前拍一条产品视频至少几千块,现在用 Seedance 几分钟就能做出来。
舞蹈影像实验
@dynamicwangs 做了个有意思的实验:既然叫 Seedance(种子+舞蹈),那能不能拿来做舞蹈影像?结果还真做出来了。上传舞蹈参考视频,AI能识别动作节奏并生成新的舞蹈画面。
音乐卡点短视频
还有人发现 Seedance 2.0 生成的视频自带卡点音效,画面切换精准踩在音乐节拍上。这对做短视频的人来说简直是福音,以前要靠剪辑软件手动对齐的事,现在AI自己就做了。
对了还想给你们看个案例:
这如果我不说,你们能看出来是AI做的吗?
我刚看的时候以为是哪个电影的片段呢,真的太牛了~
这些案例来自不同的人,用法也各不一样,但有一个共同点:都用到了上面说的那些技巧,多模态输入 + @引用 + 时间线分段 + 具体的镜头描述。
方法是通用的,效果取决于你怎么组合。
玩了一天,我的感受是:Seedance 2.0 的门槛不在工具本身,在于你能不能把脑子里的画面,翻译成模型听得懂的多模态指令。
这事儿其实做设计的人天然有优势,我们每天都在做视觉化表达,把抽象的需求变成具体的画面。现在只是多了一个能接住你指令的工具。
如果你也试了,评论区聊聊效果?
好了,今天的分享就到这儿啦~
Seedance 2.0官方手册地址:腾讯公益
https://bytedance.larkoffice.com/wiki/A5RHwWhoBiOnjukIIw6cu5ybnXQ
现在也在用 AI 做内容、做工具、做产品。
如果你刚好也在探索 AI,或者你有一些需求,我可以帮你:
设计方面
LOGO 设计
IP 形象设计
商业 PPT 定制
海报/主图设计
AI 方面
提示词定制(帮你写能出效果的提示词)
AI智能体定制
小工具/互动网页开发(批量处理工具等)
往期精选:
没有评论:
发表评论