Seedance – 青瓜传媒 //m.clubpenjuin.com 全球数字营销运营推广学习平台! Thu, 16 Apr 2026 01:43:26 +0000 zh-CN hourly 1 https://wordpress.org/?v=5.2.21 https://static.opp2.com/wp-content/uploads/2021/04/favicon-1.ico Seedance – 青瓜传媒 //m.clubpenjuin.com 32 32 Seedance 与 Happy House 走通了 Sora 没走通的路? //m.clubpenjuin.com/380734.html Thu, 16 Apr 2026 01:43:26 +0000 //m.clubpenjuin.com/?p=380734

 

Sora 带着它那昂贵且孤独的理想主义退出舞台,AI 视频的下半场已属于“精密工具”。

在应用场景的修罗场里,国内模型正在定义新的规则:即梦 Seedance 2.0 用 Agent 模式重构了创作门槛,宣告了“提示词时代”的终结;Happy House 则用硬核的制片性价比,直接下沉至专业生产的“深水区”。

与其说这是国产模型的逆袭,不如说是一次生产力的精准着陆——AI 视频正从云端的昂贵幻想,暴力进化为工作流中不可或缺的工业标准件。

一、Sora 的“理想主义”陷阱:为什么通用模拟输给了专业操控?

在 2026 年的行业复盘中,Sora 的“败走”并非技术参数的落后,而是技术路径的精英主义彻底败给了商业落地的现实主义。

Sora 试图成为全知的“世界模拟器”,却在工业生产最需要的“确定性”面前折戟沉沙。

1. “上帝视角”的傲慢:通用模拟与工业逻辑的错位

Sora 的底层逻辑是基于 Scaling Law 的大一统模拟,试图让模型通过海量数据自动习得物理规律。但在专业制片流中,这种“黑盒生成”是生产力的天敌。

黑盒生成的“确定性饥渴”:专业创作者需要的不是一个“一键出片”的魔术盒,而是一个能解构为角色、场景、镜头的控制台。Sora 的生成过程缺乏中间层的干预手段,导致导演在面对一个细节错误时,除了“重抽盲盒”别无他法。

废片率的经济账:正如参考文章所言,工业化的本质是稳定。Sora 极高的随机性使得单片达标的成本(计算资源+人力筛选)高得离谱。当国内模型已经实现像素级对齐时,Sora 依然在“物理拟真”的泥潭里挣扎,这种理想主义在商业 ROI 面前显得异常昂贵。

2. 被神话的“物理规律”:算力倾斜的战略误判

Sora 执着于对重力、碰撞、流体等真实物理世界的还原,但在 2026 年的视频生态中,这并非第一生产力。

视觉美感 > 物理逻辑:作为 AI训练师,我们在实战中发现,用户对“角色一致性”和“视觉审美”的敏感度远超物理公式的严丝合缝。短视频与广告生态需要的是视觉张力和情感唤醒(V-A 模型)。Sora 投入巨额算力去解决“水流如何溅起”,却忽略了“主角脸部如何不崩”,这在商业决策上是典型的优先级倒置。

算力税的沉重负担:这种“暴力模拟”带来的推理成本极高。当Seedance、Happy House 能够用确定的制片逻辑收割 B 端市场时,Sora 却因算力成本无法下探到大众工作流,最终沦为昂贵的“实验室盆景”。

3. 生态孤岛:脱离管线的技术自嗨

Veo 3.1 和 Sora 的共同教训在于:它们是孤立的“生成器”,而非工业生产的“标准件”。

工作流的断裂:专业视频生产是一个从剧本到剪辑的线性管线。Sora 缺乏与剪映等生态的深度耦合。它能产生震撼的 Demo,却无法进入生产线。

“可干预性”的代差:国内模型(如即梦、Kling)之所以能走通,是因为它们提供了“可干预生成”。通过图生视频、视频延展、局部编辑等功能,将 AI 转化为一个“听话的工具人”。正如文中所述,生产力的本质不是“自动”,而是“受控”。Sora 坚持的“上帝视角”,在需要精准操控的工业场景下,反而成了最大的阻碍。

二、生态承载力:工具 vs 场景,为什么国内能走通?

如果将视频大模型比作发动机,那么“下游生态”就是为其持续供能的燃料系统。Sora 的困境在于它做了一个最强发动机,却没造出配套的车轮;而国内模型之所以能走通,是因为它们从第一天起,就是为了那台已经跑在高速路上的“商业赛车”服务的。

1. 终局逻辑的易位:从“单体工具”到“场景插槽”

国外大厂习惯于“Model as a Product”(模型即产品),试图通过极致的参数表现让用户买单。但国内的逻辑是“Model as a Feature”(模型即功能),将模型深嵌于场景之中。

用户想要的是一站式的集成工具,可以生成视频,微调剪辑,发布集成在一起。而不是在多个 app 里来回切换。

“孤岛工具”的乏力:Sora 生成一段震撼的视频,用户拿到的是一个闭合的 .mp4 文件,后续的调色、剪辑、字幕依然需要跳转至传统软件。这种工作流的断裂极大阻碍了生产力的爆发。

“场景插槽”的爆发:国内厂商明白,视频生成不是创作的终点。即梦(Seedance)与剪映的结合提供了一个教科书级的范式——生成的视频直接出现在非线性编辑的轨道上,这不仅是功能的打通,更是生产力的闭环。当 AI 变成了生产线上一个随调随用的“插槽”,它的商业价值才真正落地。

2. 下游生态的承载力:短视频与电商的“暴力反哺”

国内拥有全球最卷、也最成熟的短视频与电商生态,这为模型提供了两个核心动力:变现闭环精准数据

短剧出海与内销的“炼金场”:短剧对视觉张力和角色一致性有近乎变态的要求,这种高频、高压的业务场景成了模型最好的“练兵场”。相比于 Sora 追求的物理拟真,国内模型在情绪唤醒(Valence-Arousal 模型)和画面氛围感上进化得更快,因为这是市场给出的真金白银的反馈。

电商营销的“刚需驱动”:从图文到视频的转化是万亿级的刚需。当一个电商模特需要换上 100 套衣服并做出不同的展示动作时,这种确定性极强的需求倒逼国内模型必须在“精准控制”上做到极致。

3. 数据飞轮的降维打击:从“通用数据”到“意图标注”

Sora 的训练数据大多源于互联网的公开视频,这导致它虽然“见多识广”,却“不解风情”。

高质量标注数据的来源:国内模型厂商背靠庞大的下游生产链路。每一张被用户采纳的 AI 生成图,每一次在剪映里被保留的 AI 视频片段,本质上都是一次高质量的人类意图标注

AI 训练师的实战视角:我们深知通用数据的平庸。国内模型能走通,是因为我们拥有全球最精准的“商业审美数据”。这些数据不仅包含像素,还包含了镜头的节奏、商业的审美逻辑和爆款的底层视觉参数。这种基于生态反哺的“数据进化论”,让国内模型在商用维度上实现了对国外通才模型的快速超车。

三、国内模型“百花齐放”的技术侧写:谁在解决什么问题?

1、即梦 Seedance 2.0:从“生成工具”向“创作大脑”的代际跨越

即梦的突围核心在于它彻底杀死了“Prompt 焦虑”。

Agent 模式的降维打击:在即梦里,你不再需要通过几百次的测试去磨练“咒语”。其 Agent 模式能自动完成意图分析与任务规划,将模糊的关键词转化为完整的创作方案和发散理由。这标志着 AI 从“笔”变成了“导演助手”。

极致的输入冗余(9+3+3):支持 9 张图、3 个视频、3 个音频的同时输入。这种“变态”的多模态输入能力,是为了在工业场景下提供绝对的确定性,锁死每一处构图与动作节奏。

生态闭环:生成的视频一键流转至剪映,支持“接着拍”和局部角色更替。这种对连续性叙事的支持,是 Sora 至今无法触及的量产门槛。

战略合规:坚决不支持写实真人脸部素材。这不仅是避开监管雷区,更是将算力集中在“创意想象力”而非“低级仿真”上的聪明权衡。

2、可灵 Kling 3.0/3.0 Omini 逻辑注入与原生音画的统一

如果说即梦赢在流程,可灵则赢在了“脑子”里。

Kling 3.0 Omni:有“逻辑”的视频:基于 O1 系列深度融合的统一框架,可灵 3.0 解决了 AI 视频最致命的“降智”问题。模型能够理解物理交互的先后顺序,人物演绎更具张力和表演逻辑,而非僵硬的位移。

原生音画同步:它是目前业内将音画同步控制做得最原生的模型之一。不再是画面生成后再配音,而是在生成瞬间即实现了音视频的频率对齐。

导演级分镜控制:支持 15s 长时叙事,并给出了高度灵活的自定义分镜能力。它解决的是“讲故事”的问题,让 AI 视频具备了工业电影的叙事节奏。

3、Wan 2.7:全能型“导演创作套件”

Wan 2.7 的定位非常清晰:它是为那些不仅想要生成,还想要“深度魔改”的专业用户准备的。

万能画布:它打破了“生成”与“编辑”的边界。通过提示词优化、智能扩写与主体参考,创作者可以在一个画布内完成视频的全链路生产。

更精准的动作响应:在画面结构和局部细节上,Wan 2.7 表现出了极强的操控力。它更像是一个“能导擅演”的剧组,通过多模态精准控制,实现了真正的导演级创作体验。

4、Happy House:高门槛的“专业制片人”

Happy House 在业内是一个特殊的存在,它不追求普惠,追求的是“极端精度”。

超长文本的精准翻译:支持 5000 字超长提示词。这意味着它可以直接读入一段复杂的剧本文学稿,并精准还原其中的光影与细节需求。

创意度调节(0-1 拨盘):赋予用户在“极致准确”与“AI 创意发散”之间自由滑动的权力,这在追求严谨的商业广告制作中极具价值。

商业 ROI 的真相:虽然单条 10s 视频成本高达 8 美元(约 56 元人民币),但对于 AI Trainer 或广告导演来说,这比动辄数万的实拍租赁费、场地费要划算得多。它解决的是高端定制市场的规模化产出问题。

四、深度博弈:商业逻辑与 AI Trainer 的内部视角

1. 商业合理性:56 元一条视频到底贵不贵?

当普通用户还在为 Happy House 8 美元(约 56 元人民币)一次的生成费用惊呼“抢钱”时,专业的广告导演已经开始批量下单。这种认知偏差的背后,是 C 端娱乐逻辑与 B 端生产逻辑的错位。

导演视角的 ROI 核算

在传统制片链路中,要拍出一条 10 秒的高画质运镜视频,意味着什么?你需要租赁阿莱(ARRI)级别的摄影机、协调灯光组、雇佣跟焦师、支付场地使用费,哪怕是最小型的单日摄制组,成本也要以“万”为单位起跳。

昂贵背后的“极致确定性”

Happy House 敢报高价,是因为它提供了工业级的容错率。对于导演来说,56 元换取的是 5000 字提示词的精准翻译和可控的运镜幅度。

2. AI Trainer的冷思考:物理准确 vs 视觉美感

作为一名 AI Trainer,在参与如 Qwen Image 或 EmoSet 这样的数据策略制定时,我们必须直面一个残酷的真相:物理逻辑的绝对准确,在商业落地面前往往要给“审美直觉”让位。

“真实”不等于“好看”

Sora 试图成为物理规律的搬运工,但在实战中我们发现,下游生态(如短视频、短剧、电商)对物理规律的容忍度极高。用户可以接受一个水滴溅射轨迹不符合流体力学的镜头,但绝不能接受主角的脸部阴影显得邋遢,或者肤质失去了“高级感”。

V-A 情感模型的降维打击

在处理情绪数据时,我们更关注 Valence(愉悦度) 和 Arousal(唤醒度)。

V-A模型应用:在短剧赛道,人物情绪的爆发力、光影氛围营造的张力,比“头发是否符合重力学”更能抓住观众的注意力。

结论: 国内模型之所以能在商业化上抢先拿到入场券,正是因为训练师们在模型对齐(Alignment)阶段,优先选择了“满足人类审美偏好”而非“致敬物理教科书”。

五、结语:中国模式给全球 AI 的启示

1. “防御式创新”:在合规红线内开辟的第二战场

即梦(Seedance 2.0) 坚决禁止上传写实真人脸部素材,这曾被部分发烧友视为“阉割”,但在工业生产视角下,这是一次极其高明的“防御式创新”。

规避“深伪”泥潭:在全球对 Deepfake 和肖像权监管日益收严的背景下,Sora 等国外模型在合规审查上耗费了巨大的人力与时间成本。国内模型通过“自我约束”,主动剥离了高风险的真人拟真赛道。

深耕创意 IP 的红利:这种限制迫使创作者将注意力转向虚拟角色、二次元、跨物种生物等创意 IP。相比于复刻现实,这些具备极高辨识度和版权价值的虚拟资产,才是未来短剧、游戏和元宇宙生态的“硬通货”。

2. 未来预测:视频大模型的终局是“深度闭环”

2026 年以后的竞争,将不再是单点参数的较量,而是 “场景 + 数据 + 工作流” 的深度闭环。

场景:模型必须长在具体的业务里(如电商视频、短剧出海)。

数据:通过业务产生的“真实意图数据”反哺训练,形成 Sora 无法获取的商业审美语料库。

工作流:AI 必须无缝嵌入非线性编辑系统,成为生产线上的标准件。

行业断言: 只有实现“生成即编辑、出片即商用”的闭环,视频大模型才能真正摆脱昂贵的推理成本,转化为实打实的生产力利润。

3. 总结陈词:Sora 证明了“可能”,而国内模型证明了“可行”

回看这场长达数年的技术拉力赛,我们应当对 Sora 保持敬意:它像一位伟大的普罗米修斯,用极致的算力和物理模拟证明了“AI 能够理解动态世界”的可能性。

然而,即梦、可灵、Wan、Happy House 等国内模型的百花齐放,则在应用层的“丛林”里完成了更艰难的任务——它们证明了 AI 视频在商业逻辑上的可行性。

Sora 的败走,是技术精英主义与现实生产力脱节的警示。

中国模式 的崛起,则是对“场景优先、确定性至上”这一工业法则的有力注脚。

当理想主义的硝烟散去,留在生产线上的,终究是那些能算清账、好上手、能成片的精密零件。

作者:北辰

]]>
Seedance开始向B端要钱了 //m.clubpenjuin.com/380470.html Mon, 06 Apr 2026 00:15:48 +0000 //m.clubpenjuin.com/?p=380470

 

“大家在武汉多吃龙虾。”屏幕上,龙虾创始人Peter Steinberger用中文如是说道。

然而,这个画面并非真实的Peter本人,而是Seedance 2.0制作的画面。

在昨日举行的火山引擎武汉站巡展现场,由火山引擎支持的ClawHub中国官方镜像站正式启动运营,而龙虾创始人Peter Steinberger也发来祝贺视频。

这则视频最后,Seedance 2.0生成的Peter无缝衔接,生成了一组文章开头提到的“彩蛋”。

在活动现场,“龙虾”和Seedance无疑是两个最受关注的词。

龙虾方面,近期多家中国AI企业与OpenClaw官方达成合作,腾讯此前宣布QQ正式原生接入OpenClaw官方平台。字节方面也同步推出了ClawHub中国官方镜像站。

会上,火山引擎方面宣布,豆包大模型日均Token使用量已突破120万亿。面对调用量激增,Token经济的下一步如何发展备受业内关注。

在采访环节,在回应字母榜提问“面对模型调用激增、Token消耗存在不确定性的现状,模型厂商该如何优化定价策略?”时,火山引擎总裁谭待这样回应:

“目前OpenClaw这类通用型平台适合按Token收费,因为其应用场景广泛,无法统一定义效果和成本。”谭待同时表示,未来可能会孵化出垂直领域的智能体,如客服智能体,就可以按回答问题的数量收费。“类似线下找客服的模式,按效果付费。”

“但这种按效果的计费模式只适用于垂直领域,通用型产品无法定义统一的成本和收益,还是要以Token收费为主。”谭待这样总结道。

和“龙虾”同样被视为AI生产力/商业化突破口的是视频模型。在今天的活动现场,Seedance的元素密集呈现,在官方流出的多部宣传片中,其与春晚的合作被反复提及,被认为是Seedance2.0的里程碑事件。

目前,中国AI视频模型已形成头部集中格局:快手可灵率先实现规模化收入;字节即梦依托字节体系并加速追赶;阿里通义万象、腾讯混元、MiniMax海螺等也各自占据着部分份额。

会上,Seedance 2.0 API宣布面向企业用户开放公测。在视频生产力环节,字节方面准备了许久的“王炸”终于正式进入B端市场。

2026年Token用量激增的春天,这场行业龙卷风还是吹到了AI视频领域。

01、视频模型进入“调用竞争”

武汉站的活动中,谭待以Seedance 2.0的邀测企业客户“奇想无限”为例,介绍了AI视频当下的提效场景。他表示,过去奇想要制作一部高水准精品漫剧,每分钟成本往往超过一万元。现在通过Seedance 2.0,每分钟成本可以降低4000到5000元。

中邮证券在上月发布的行业报告中提到,AI漫剧制作周期已从50至60天压缩到30天以内,成本降到传统模式的10%到30%;在去年4月至7月,供给量和播放量分别实现约83%和90%以上的复合增长。

与此同时,视频模型也在批量进入创作者环境,涌现出许多“出圈”案例。

最近一段时间,以“雪山用酱板鸭救狐狸”为核心元素的AI短视频在全网广泛传播,“你是否在雪山上救过一只狐狸”的台词成为网络热梗,相关话题讨论度持续走高。

一众网友脑洞大开,通过豆包Seedance 2.0等模型魔改各种“狐狸和酱板鸭”的剧情,全网传播量直破50亿。公开报道显示,“雪山酱板鸭”的首支爆款视频制作耗时约5小时,成本只有几百元,随后被大量二创、模仿和延展。

“酱板鸭”之所以能“破圈”,“预期违背”的主题只是一方面,更重要的是以Seedance为代表的新一代模型在分镜、动作、风格和叙事上都呈现出了超越前代的水平。

根据火山引擎方面披露,Seedance 2.0的技术突破集中在两点:一是多模态参考,文本、图片、视频、声音可以一起作为条件输入;二是对物理世界的理解,使碰撞、反弹、油脂飞溅、彩带飘舞这类细节更自然。

不过,这并不代表Seedance 2.0已经全方位把竞争对手甩在身后。

东吴证券在今年2月披露的行业研报中指出,可灵3.0与Seedance 2.0均实现了“视频输入—视频输出”的原生多模态能力,相比上一代模型,在一致性、稳定性与分镜表达上均有明显提升。

进一步对比来看,两者定位有着分化。Seedance 2.0更侧重故事表达与镜头语言,具备多镜头生成与叙事能力,更适用于短视频与漫剧等内容场景;而可灵3.0则定位专业级内容生产,在画面细节、真实感与整体质感上表现更优,更接近影视级制作工具。

另一方面,从视频模型进入发展快车道以来,技术惊艳和商业成立从来不是同一件事。

Sora就是最直接的反例,OpenAI近期选择关闭了这个曾经技惊四座的AI视频模型。一些行业分析显示,OpenAI关停Sora的重要原因包括算力成本过高、缺乏盈利性和竞争加剧;与此同时,其下载量从2025年11月的610万下滑到2026年3月的110万。

更关键的是,Sora的问题并不能简单归咎于技术层面。行业媒体Tom’s Guide在去年底的对比测试中写道,Sora 2在7组提示下总体胜过Veo 3.1,优势在于更强的叙事逻辑、更好的物体一致性和更平滑的情绪表达。

相比起技术因素,成本则是一个真正绕不过去的命题。

有行业调研曾在去年11月测算,早期版本sora生成10秒视频的算力成本约为1.3美元;而主流视频API公开价格大约落在10秒0.5至7.5美元之间。表面看有毛利空间,但这并没有覆盖失败重试、审核拦截、闲置算力、带宽和工程运维等隐性开销。

所以视频模型今天最关键的矛盾,仍然是“如何卖更多钱“。也正因为如此,视频模型最先落地的领域,大都聚焦在广告素材、电商视频、短剧和漫剧这类ROI相对清楚的场景。

IAB数据显示,约三分之一的视频广告已由AI生成,并将在2026年提升至接近40%;同时78%的营销团队已在视频生产中使用AI,85%的AI视频平台用户来自社交媒体营销人员。

换言之,这也将是Seedance/即梦和可灵“厮杀”最激烈的领域。

02、ARR说明不了胜利

如果只看已经跑出来的商业结果,可灵的ARR依旧领跑行业。

今年1月,快手官方披露,可灵AI在2025年12月单月收入突破2000万美元,对应年化收入(ARR)达到2.4亿美元。随后在今年3月的财报电话会上,CEO程一笑进一步透露,截至2026年1月,可灵AI ARR已超过3亿美元。

公开资料显示,截至2025年底,可灵全球用户超过6000万,累计生成视频超过6亿个,并为3万多家企业客户和开发者提供API服务。

在电商营销场景中,快手电商联合可灵AI曾在2025年春节档推出《灵蛇奇遇》项目,通过AI生成营销视频并配合达人种草与直播转化,整体曝光达到4亿,AI概念视频播放量超过1000万。

扎根短视频平台,更加熟悉并理解创作者生态,这是快手相比阿里、MiniMax更早在AI视频领域抢占用户心智的原因之一。

但Seedance不一样,这个豆包模型家族成员,背后的母公司同样拥有抖音这样的超一线创作者平台,以及火山引擎这样的AI云厂商。

不过,对于两家头部AI视频模型的商业化格局,一直以来却缺乏足够多的公开信息进行对比。相比可灵,字节方面并未披露过Seedance/即梦的ARR以及其他营收指标情况。

而在收费逻辑上,只有Seedance明确按Token定价(约46元/百万Token),而可灵并未公布Token计费口径,其价格体系仍以点数(credits)与套餐为主。

Tech星球曾在此前的报道中披露,可灵年会员分四种,最贵的黑金会员费用为11079元/年;即梦高级会员连续包年费用为2599元/年。而在实际生成视频成本上,二者相差不大。

另一个需要厘清的问题是,AI视频到底是一个多大的蓝海市场?作为内容生产工具,最终产出的内容要到市场上流通消费。内容创作企业/团队侧短时间内愿意尝试AI视频,很大程度上是因为“降本增效”四个字的魔力太大。

但用户侧的反馈,往往需要更长周期去消化。市场研究公司Kantar此前发布的2025年趋势研究显示,超过40%的消费者不信任AI生成广告,这种“信任赤字”会直接影响品牌如何使用AI视频。

奢侈品牌Gucci在今年2月发布AI生成宣传图后,在社交平台收获大量负面反馈,用户直接评价为“廉价”“像游戏建模”,批评其画面缺乏奢侈品牌应有的质感与真实细节;麦当劳去年底在荷兰投放的一则AI圣诞广告也因人物怪异被撤下。显然,用户在高审美、高信任、高品牌风险场景中,对明显的AI痕迹更敏感甚至存在抗拒。

相反,在C端的短剧、漫剧、二次元和实验影像中,AI视频的接受度明显更高。央广网4月1日报道,B站首届AI创作大赛自1月5日启动以来,共收到8300多份有效作品,累计播放量突破7亿,其中143部作品播放量超过百万。

把这些拼起来再看,可灵和Seedance,包括其他AI视频模型产品的竞争,可能在未来一段时间里仍将处于“走量”的竞争,而非找到明确的盈利拐点。

说白了,在这个蓝海市场里还不会立刻出现你死我活的格局,因为需求在不断扩张的同时,离盈利的节点还很远。可灵3亿美元ARR尽管在行业内值得称道,但大概率也难以覆盖算力侧的高昂成本。

而在昨天的火山引擎武汉站活动中,当谭待被问及有关盈利和商业化目标的问题时,他给出的回复是“目前还没有做3年的盈利规划,暂时没有这方面的具体安排”。

长期来看,平台、API、广告、电商都只是外层变量,决定胜负的关键因素之一仍然是模型本身。

Sora的产品失败,不妨碍它从Sora 1开始持续刺激整个行业;同样,Seedance和可灵最终比拼的,仍然是谁能更快把“最强模型”迭代出来。

三个月前在中关村“露脸”的姚顺雨、昨天在武汉露面的谭待,都曾表达过这样一个观点:“用户只会为最好的模型买单。”

只要两大互联网巨头的投入不停,Seedance和可灵争夺市场的准则,仍然是用模型硬实力说话。

作者:李炤锋

来源:字母榜

]]>
Sora关停,Seedance怎么办? //m.clubpenjuin.com/380388.html Tue, 31 Mar 2026 06:01:52 +0000 //m.clubpenjuin.com/?p=380388

 

最昂贵的视觉神话,倒在IPO前夜。

毫无预兆,OpenAI按下了Sora的停止键。

2026年3月24日,OpenAI正式发布声明,宣布关停推出仅六个月的AI视频生成平台Sora。声明中写道:“我们要和Sora说再见了。感谢每一位用Sora创作、分享并构建相关社区的用户。”OpenAI同时表示,将尽快公布应用与API的下线时间表,以及用户作品的保存方案。

CEO Sam Altman在内部员工会议上进一步说明,此次关停不仅涉及面向消费者的应用,面向开发者的Sora版本也将停止运营,ChatGPT中的视频功能同样不再维护。这意味着,视频生成这条产品线,正在被整体移出OpenAI的核心版图,但技术团队并未解散,而是转向机器人、世界模型等基础研究方向。

从内部到外部,这次关停都来得相当突然。多家外媒披露,不少Sora团队成员直到当天早晨才被告知关停消息。就在不久之前,Sora仍在与包括迪士尼在内的内容合作方推进项目沟通。

回看Sora的发展轨迹,它似乎一直处于上升的轨道上。

2024年2月,OpenAI发布Sora 1.0技术预览版,凭借创新的Diffusion Transformer架构,该模型能够生成长达60秒、细节精细的视频片段。经过一年多迭代,Sora 2于2025年9月正式作为独立社交应用上线,新增音画同步、真人角色植入等高级功能,上线后迅速冲上苹果App Store免费榜榜首。

2025年12月,OpenAI与迪士尼达成一项为期三年的合作协议:后者投资10亿美元,并开放超过200个迪士尼、漫威、皮克斯及《星球大战》的经典IP,用于Sora平台内容生成。这一合作一度被视为AI视频走向主流内容工业的关键一步。

但短短数月,这一想象便戛然而止。

随着Sora的关停,这笔被寄予厚望的合作同步终止。迪士尼方面回应称,尊重OpenAI调整业务优先级、退出视频生成领域的决定。

一位AIGC导演颇感遗憾:“如果继续做下去,Sora很可能会变得非常强,但它选择不再往前走。”

从技术爆红、产品登顶,到资本加注,再到突然终止,Sora的生命周期被极度压缩。就像一位用户在社交媒体上评论:“短短四个月,就从一个数十亿美元级别的合作走向终结,这就是当单位经济模型失效时,AI产品被重新定价的速度。”

对国内视频生成赛道而言,Sora之死留下的不只是一声叹息,也是一道考题:靠“烧钱”撑起的想象力,究竟还能走多远?

01 官宣死亡前已被抛弃

在OpenAI正式宣布关停Sora之前,它在AIGC视频创作圈里的“死亡”,早就发生了。

多位AIGC导演对「AIX财经」表示,过去几个月里,Sora的使用频率已经明显下降,甚至逐渐退出日常生产流程。

最直接的问题是清晰度。

Sora生成的视频在细节还原、纹理稳定性和画面干净程度上,始终存在短板,人物容易“糊脸”、复杂场景容易崩坏、运动镜头下的失真尤为突出。这意味着,它更像一个概念验证工具,而不是一个可以直接交付客户的生产工具。

但真正致命的,是有人比它更好。

AIGC导演丁一的经历颇具代表性。Sora2刚上线时,他曾连续熬夜测试,被其生成能力震撼。但没过几个月,这种兴奋感就被Seedance代替。尤其随着Seedance2.0的发布,他的工作流迅速发生迁移,从“以Sora为主”,变成“几乎只用Seedance”。

他告诉「AIX财经」,Seedance更像是“Sora本该成为的样子”。

两者在底层思路上高度相似。

但Seedance在关键指标上完成了赶超,譬如更高分辨率的输出、更稳定的长镜头控制、更准确的语义理解,以及更接近真实摄影语言的镜头调度能力等。

图源 / Seedance官网截图

在C端用户那里,Sora同样迅速被遗忘。

凭借惊艳的文生视频效果,Sora引爆过市场。应用分析机构Appfigures数据显示,Sora APP上线首周iOS下载量达62.7万次,甚至略高于ChatGPT当年的60.6万次。

在“仅限邀请”的限制下,这样的增速一度让外界看好其成为下一个全球现象级应用,被视为AI版的“TikTok”。

但用户的新鲜感来得快,去得也快。

同样来自Appfigures的数据,去年12月Sora下载量环比下降32%,今年1月再度下滑45%。在美国App Store榜单上,Sora很快跌出前100。即便12月后引入迪士尼IP授权,也未能扭转颓势。

“视频领域的GPT时刻还没有到来。”面对Sora的夭折,好耶科技创始人吴杰茜有些感慨。

有从业者分析,Sora的冷遇不单单是技术原因,绝大部分人缺乏创意,也没有时间和动机持续生产视频。因此,纯AI视频很难支撑长期的内容生态。社交产品的核心从来不是“内容生成”,而是“关系与参与”。文化氛围、关系链、分发机制与留存设计,构成了一个复杂的增长系统,这并不是靠模型能力升级就能补齐的。

一边是B端竞争加剧、C端用户流失;另一边,Sora的成本却始终高企。

据外媒报道,OpenAI过去每天在Sora上的支出高达1000万至1500万美元,按年计算约为54亿美元。

换言之,这是一个投入巨大、但回报路径尚不清晰的项目。

当一个产品既无法在生产端建立不可替代性,也无法在消费端形成留存闭环时,它的结局,或许早已注定。

02 谁捅了Sora“最后一刀”?

Sora的关停,对于OpenAI来说是一场战略收缩。它的退出,在OpenAI内部也非孤立事件。

3月19日,OpenAI宣布将ChatGPT桌面端、代码工具Codex和浏览器Atlas整合为一个“超级应用”。应用负责人Fidji Simo在内部信中直言,过去产品线过于分散,不同App和技术栈的碎片化,正在拖慢整体推进速度,甚至影响产品质量。在更早的全员会议上,她的表态更加直接:公司必须避免被“支线任务”分散精力,把重心放在生产力场景,尤其是企业端。

另据The Information3月25日的报道,OpenAI已完成下一代大模型的预训练,内部代号“Spud”,对应 GPT-5.5甚至6.0级别。CEOSam Altman在内部将其形容为“非常强的模型”,并认为它有潜力直接推动经济效率提升。

综合来看,这些举措背后显示出了OpenAI的最新策略:

模型层面:押注“Spud”作为下一代核心引擎,尤其值得关注的是它的价值定位可能是“提升经济效率”,而非单纯的技术演示。

产品层面:停止Sora等产品的边缘探索,整合现有工具为“超级应用”,全力争夺企业级用户和高频使用场景。

资源层面:在算力约束下,将资源从多线并进集中到核心主线。

一言以蔽之,OpenAI要从多线探索转向深度聚焦,为即将到来的“Spud”时代做准备。

这种转向,其实有迹可循。

首先是外部竞争的倒逼。

Anthropic在企业市场的崛起,正在动摇OpenAI原本的优势地位。

根据AI金融公司Ramp报告,Anthropic在2月份商业软件订阅增长了4.9%,同期OpenAI的订阅份额下降了1.5%。

另据Kharazian数据,在新增客户中,Anthropic拿走了大约70%的首次采购份额。

Anthropic路径极为克制,专注于代码与企业服务,几乎不涉足图像、音频和视频生成,却反而建立起更强的商业化能力。

这给OpenAI上了一课:全面铺开,并不等于全面领先。相比什么都做一点,把最核心的能力做到极致,反而更容易形成壁垒。

其次,是财务与资本市场的现实压力。

随着估值攀升至7300亿美元,OpenAI不仅需要讲述增长故事,更需要证明自身具备可持续的盈利模型。

视频生成显然不符合这一要求,高昂的GPU成本、有限的用户付费,以及尚未成型的应用场景,使其短期内难以承担“造血”角色。

根据Appfigures估算数据,自上线以来,Sora移动端累计收入仅约140万美元,单月峰值约54万美元。

与此同时,每一次视频生成都在消耗大量算力资源,而这些资源如果投入到ChatGPT、Codex等高频使用场景,能够带来更稳定、可预期的回报。

因此,与其继续在不确定性极高的方向上“烧钱”,不如将资源回收,投入到已经验证过需求的核心产品中。

这背后,其实是OpenAI从技术驱动向商业驱动的重心转移。

在技术探索阶段,广泛布局可以带来想象空间。

但一旦进入规模化竞争与资本约束并存的阶段,企业就必须回答更现实的问题:哪一部分业务,真正能够撑起增长与利润。

Sora目前给出的答案,显然是否定的。

03 后Sora时代:视频AI的“冰火两重天”

Sora的关停,在AIGC视频领域投下了一颗深水炸弹。但对于国内的视频模型玩家而言,这件事引发的不是恐慌,而是两种截然不同的判断。

一种看法认为,国内视频模型的窗口期正在打开。

Sora的退出,意味着视频生成赛道少了一个极具品牌号召力的对手。

在部分从业者看来,这恰好给了国内厂商抢占用户心智的机会。在OpenAI主动收缩战线的当下,国内玩家反而可以加大投入,用更激进的产品迭代和更灵活的商业模式去争夺市场。

另一种看法则更加冷静,甚至有些悲观:这条路,本来就走不通。

多位从业者指出,视频生成模型目前普遍面临一个尴尬的局面——投入巨大,但目前回报暂时有限。这是整个赛道都要面临的难题。

视频模型的竞争逻辑,天然决定了它难以形成可持续的商业模式。

吴杰茜告诉「AIX财经」,要想维持一个视频模型的领先地位,就得持续不断地投入。模型的迭代、算力的扩容、效果的优化,每个环节都烧钱。

“大模型的竞争太残酷了。如果资金没到位,或者研究速度不够快,哪个环节差一点,就会马上掉队。而一旦掉队,用户就会迅速跑到最新、最领先的模型那边去。”吴杰茜说到。

丁一告诉「AIX财经」,他目前在Seedance上生成一段15秒的视频需要花费22元,做一个一两分钟的短片,成本在几百元到几千元之间。这个价格对专业创作者来说尚可接受,但对普通用户而言,显然不够友好。更要命的是,Seedance现在排队现象严重,只能在深夜时段使用。

而且丁一怀疑,Seedance目前的生成效果开始“降质”,效果不如刚发布时惊艳。“如果有更好用的工具出现,肯定会用其他的”。

哪个工具好用就用哪个——这是业界的常态。

这种“赢家通吃”的竞争格局,迫使所有参与者都不得不在军备竞赛中持续烧钱。如果停止烧钱,模型厂商就无法继续研发最尖端的模型;但继续烧钱,又面临商业化路径不清晰的困境。

从这个角度看,后Sora时代真正的特征,或许正是这种“冰火并存”的状态:一边是技术持续突破、投入不断加码,行业看起来热火朝天;另一边是商业化迟缓、用户留存困难,现实依然冷峻。

而谁能在这两者之间找到平衡,或许只有时间才能给出答案。

作者 :陈丹 编辑:魏佳

来源:定焦One

]]>
Sora落幕,可灵和Seedance拿短剧赚钱 //m.clubpenjuin.com/380379.html Tue, 31 Mar 2026 03:23:57 +0000 //m.clubpenjuin.com/?p=380379

 

Sora 关停的 2 日后,在一场以 AI 短剧为主题的论坛上,一位非常焦虑的观众向一位一人短剧公司的 CEO 提问:“传闻您的团队在春节期间制作了 200 部短剧,大概在多短时间内?真的是 2 个人带 4 只小龙虾吗?”

出身北电的内谷女士,也是杭州芭芙点满泛娱的 CEO 回答道:“准确的,一个月内完成 200 部。生产规模是,由我和另一位 coo 共同管理,制作团队一个人一天大约能产出合乎质量的产能为 40 分钟。”

焦虑的观众继续追问:“我想询问几个比较敏感的话题,每分钟产生的收益大约是多少?您用的是哪个模型?”

内谷并不逃避:“可以回答的是,利润率大约是 45%左右。模型方面,目前我们采用的是 Seedance2.0 面向企业的版本。”

图说/记者用豆包生成的小猫自拍,图源/豆包 AI

能赚多少钱,这是人类最关心的话题,也是一个 AI 视频生成平台能否在行业站得住脚的根本。

一方面是 AI 技术的日新月异,另一方面,在商业的视线下,AI 视频第一次出现“技术输给生态”的反理性现象。

3 月 24 日,Open AI 旗下的 Sora 关停,一个被寄予厚望的技术传奇突然收缩,与迪士尼签约的十亿美元订单陡然落空。

Sora 落幕的 1 个月前,字节跳动上线 Seedance 2.0,即梦、豆包随即接入,并高调宣布与掌阅、阅文等老牌IP公司的合作。

Sora 落幕的 1 天后,快手可灵 AI 晒出一份亮眼财报,2025 年化收入运行率(ARR)达到 2.4 亿美元,并带动快手估值重构。

技术神话跌落神坛,“老铁”们热爱的小视频、小短剧却玩得风生水起。同样是视频大模型,为什么走向截然不同?

图说/记者用 AI 生成的小猫自拍,图源/豆包 AI

先说结论,让 AI 视频真正分出胜负的,不是生成技术,而是“有没有人真的在用”和“究竟能不能赚钱”。

AI 视频生成赛道不会迷信技术神话,越早建立全链路闭环,嵌入真实商业场景,越早成功。因此,商业链路更短平快的短剧得以弯道超车,成为了 AI 视频的第一落点。

今年 3 月初,AI 短剧《霍去病》火遍全世界,“5 亿播放”背后的流量红利令人眼馋,当其与“成本 3000 元”的标签贴到一起,让 AI 短剧迅速成为风口浪尖。

其导演杨涵涵在今年 3 月爆火后不断接受采访,也不断澄清,比较准确的数据是:20 个人,不包括吃饭睡觉的时间工作了 48 个小时,3000 元仅仅是算力成本,不包含人工、房租、水电等。而网传的“80 集”也不准确,只有 4 分多的 MV 和 6 分钟的正片;至于 5 亿播放,无法准确统计。

图说/AI 短剧《霍去病》,图源/杨涵涵 AIGC

神话之下,AI 短剧势如破竹。DataEye 数据显示,2026 年 1 月份漫剧百强榜中,AI 仿真人短剧占比从去年的 7%提升至 38%。预计 2026 年,AI 漫剧(包含 AI 仿真人短剧)用户规模将从 2025 年的约 1.2 亿增至 2.8 亿,市场规模预计达 240 亿元。

这一次,风口上起飞的为什么又是短剧?

据从业者分享,短剧行业对于视频质量的要求不算特别高,产量需求极大,ROI 清晰、链条短、收益快,同时——和传统影视行业的其他类目相比,投入更低、风险更低、回报更大。

另一方面,一体化短剧生成平台井喷。剧本、分镜、素材、剪辑、配音,甚至发布……全流程 AI 参与,可灵 AI 润物细无声地潜藏在无数个 AI 短剧一键式生成的后台,极致的降本增效让个人制作 AI 短剧的门槛低到下载一个平台、会打字、会简单剪辑,越来越多的一人短剧公司应运而生。

短剧没有什么“精雕细琢”,短剧相信的是“大力出奇迹”:有算力就烧,有模型就跑,有钱就赚。

图说/红果短剧的AI漫剧栏目,图源/红果短剧

于是,“夺命”小短剧凭借自己更符合时代需求的优势,战胜了电影、广告、宣传片,跑出了一个又一个作品,先声夺人。

高盛在最新研报中预计,全球 AI 视频生成和编辑市场规模将从 2025 年的约 30 亿美元增至 2030 年的约 290 亿美元,未来五年增长 10 倍。

一个富裕且仍有上升潜力的蓝海市场,一个简单快速、已被认证跑通的商业链条,AI 视频与短剧遇到了彼此。

然而,生产力由技术支持,也需要平台去买单。平台和技术的双向依赖,使 AI 短剧的链条一方面如同风口上的猪一样被高高吹起,另一方面又宛如风中残烛一般摇摇欲坠。

图说/AI 短剧里的男性形象,图源/豆包 AI

所有人都希望在不确定性中寻找确定性。

如何跑通自己的商业模型,Seedance 希望开拓另一条路径:IP 生态。

从“秒元”定价开始,Seedance 就拉开了和市面上其他 AI 视频生成模型的差距:Seedance2.0 采用 tokens 差异化计费模式——纯文生视频 46 元/百万 tokens,生成 15 秒视频需消耗约 30.888 万 tokens,单条成本约 15 元,折合每秒 1 元。

图说/Seedance 收费,图源/Seedance 官网

和可灵黄金会员首次充值 5.99 元/7 天的轻量化收费相比,Seedance2.0 每秒 1 元的价格意味着这个昂贵且更加精细的模型是为 IP、短剧、营销等有一定资产的企业准备的。

2 月,Seedance2.0 发布后,除了迅速接入同胞姐妹豆包、即梦,掌阅、阅文、华策等老牌IP厂商第一时间便宣布在旗下或相关AI短剧平台后台接入 Seedance,鼓励对于成熟 IP 的再创作。3 月 27 日,Seedance2.0 AI 视频生成模型全面接入全球版剪映 CapCut 多端上线服务,迈入海外蓝海。

更彻底地拥抱场景、更包容地接纳生态、更坚决地选择商业、更迅速地扬帆出海,这是 Seedance 从 Sora 身上学到的教训。

结语

在今年春节,一句广为流传的话是,AI 视频像一颗子弹一样击穿了传统影视行业。

然而,AI 视频不会先改变好莱坞——高精尖的技术壁垒仍然存在,它先影响的是横店、短剧公司和广告素材工厂等在一线讨饭吃的从业者的饭碗。

在论坛的最后,一位来自横店的从业者有些忧虑地提问:“AI 演员会代替真人演员吗?我了解到有一家公司已经签约 AI 演员的形象了,我身边的很多演员朋友都为此非常焦虑,担心饭碗被 AI 砸掉。”

一位从事 AI 漫剧培训的嘉宾回答道:“在当前技术条件下,我认为 AI 无法替代真人,她们各自有受众。总有人会更喜欢有感情的交流、有温度的互动。”

内谷回答:“无法完全被替代的只有 5%~10%的顶尖演员,但人类任何行业都有可能出现这种状况,不只是演员,这是我比较悲观而焦虑的看法。演员输出角色阐述时,要有创作者的思维,将自己置于创作者的位置前端,而不是被选择,只能演绎别人给你们的固定角色脚本,我认为这是更好的选择。”

最后一位嘉宾的回答是:“我认为演员追求的是 AI 无法实现的事物,正如同人类在追求 prompt 无法描绘的细腻情感一样。”

作者:吴佳霖

来源:胖鲸头条

]]>
可灵与Seedance狭路相逢,谁能笑到最后? //m.clubpenjuin.com/380106.html Mon, 23 Mar 2026 03:05:45 +0000 //m.clubpenjuin.com/?p=380106

 

自2024年6月可灵AI正式发布以后,快手在视频大模型上曾经一度领先了至少一年半的时间。

该大模型上线以来实现了超30次迭代,号称“全球首个统一多模态视频大模型”,部分功能创新甚至一度让可灵AI海外下载量“屠榜”。

除了技术之外,商业化方面同样引人关注。可灵是国内第一个实现商业化收入,并主动披露收入的视频大模型。1月13日,快手科技宣布,可灵AI 2025年12月的当月收入突破2000万美元,对应年化收入运行率(简称ARR)达2.4亿美元。此前,可灵AI曾在2025年3月,即正式上线的第10个月宣布ARR突破1亿美元。

但这种优势,2026年突然被打破。今年2月,字节旗下Seedance2.0AI视频生成模型在国内外互联网爆火出圈,被称为“地表最强视频生成模型”。特斯拉CEO埃隆·马斯克在社交平台上转发Seedance2.0相关推文,并评论称“发展速度惊人”。

2月5日,可灵3.0系列模型上线。如今,字节seedance2.0与快手可灵3.0狭路相逢。外界的关注点在于,这一次,快手可能不仅先发优势失灵,而且“先发后至”的尴尬局面会再次上演。

01 快手“全村的希望”

可灵一度被视为快手“全村的希望”,快手多次在财报中提及可灵业务。尽管它的年收入只占总收入的百分之一左右。

战略地位上,可灵已升级为快手当前优先级最高的业务之一。去年4月份,快手基于可灵 AI 组建了独立事业部,成为与主站、商业化、电商、国际化、本地生活并列的一级业务部门,向快手董事长兼CEO程一笑汇报。

快手科技CFO金秉曾在第三季度财报公布时表示,受可灵AI等相关业务超预期发展带动,公司将继续加大算力等AI相关投入,预计2025年集团整体Capex支出(资本性支出)将较去年实现中高双位数的同比增长。

只是,视频生成赛道处于高速迭代之中。技术竞赛背后比拼的依然是真金白银的砸钱力度,字节、阿里、腾讯等互联网大厂动辄千亿投入,让这场用户争夺战变得格外激烈。

可灵先发优势逐渐被削弱。据快手Q1的财报会披露,可灵AI营业收入主要由P端付费用户(指专业的自媒体、视频创作者和广告营销从业者等),以及为企业客户提供API服务构成,其中,近70%由P端付费用户贡献。程一笑曾在财报电话会上谈及可灵产品定位与竞争策略,称快手将聚焦于AI影视创作这一核心目标。

Seedance2.0用户看似更侧重C端,但目前包括AI短剧、网络电影在内的影视从业者、广告营销从业者与可灵AI核心用户重合度极高。

用户高度重合,各家之间已经没有严格的B端C端之分。可灵一位前员工向Tech星球表示,从优势来讲,目前可灵与Seedance2.0相差不大,可灵主要面向B端和专业用户,Seedance2.0在C端做的更好。可灵成本偏高,目前注重效果。但对专业的用户来讲,实际上各个视频工具应该都会用,不会只用一个。

短期来看,竞品崛起对可灵收入影响有限,但长远来看,用户心智碾压、迁移的影响更为致命。某国产化妆品品牌负责人李阳表示,今年年初看到AI大火,便开始研究如何利用AI制作视频。在此之前,公司从未使用AI视频工具生成视频。没研究过可灵、Sora,直接接触的就是Seedance2.0。

AI视频使用门槛并不高,李阳称,公司内部两个人研究提示词,研究怎么让产品不变形,怎么抽卡。周一开始研究,到周五基本就已经上手可以做一些视频出来了。充值会员使用Seedance2.0,一年标准会员费也就949元。

品牌使用AI视频工具,直接达成将本增效的效果,省去一大笔拍摄费用。过去,一支广告片,一般带明星的TVC拍摄费用都在百万以上。现在,只有会员充值费,便可以自产视频广告。而且制作周期大大缩短,前一天生成,第二天早上睡醒就可以出片。“我把它称之为种草。前一天种草,第二天一早起来收菜。我现在每天早上起来第一件事就是打开AI看我的视频生成出来没有,真就当代版QQ农场。”

02 字节Seedance2.0的崛起

单从数据、营收等维度,目前尚无法准确对比出可灵与Seedance2.0的体量与差距。可灵数据几乎是公开的,但Seedance2.0比较隐秘。数据显示,可灵月活跃用户(MAU)在今年1月突破1200万,年化收入运行率(简称ARR)2.4亿美元。Seedance2.0作为视频大模型,即梦、剪映、豆包等字节生态产品都有接入,入口太多,所以外界无法准确统计出用户规模。业内有人保守估算,Seedance2.0春节期间月活达到4500万人,反超可灵。

但在用户感知层面,Seedance2.0现在的声量显然高于可灵。

一位漫剧公司创始人向Tech星球表示,制作AI短剧会同时使用可灵与Seedance2.0,从个人使用体验来看,Seedance2.0更胜一筹。

用户迁移的迹象明显。不止AI短剧公司将Seedance2.0作为日常主力工具,很多影视从业者的第一AI视频工具也从可灵变成了Seedance2.0。影视制作人陈旭透露,今年年初开始使用AI视频工具,当时Seedance2.0尚未上线,可灵也还没有更新到3.0,还是可灵2.6,他们项目制作视频都是使用可灵2.6,图片制作基本上是Nano Banana。

Seedance2.0上线以来,现在跑视频如果不用排队会优先使用Seedance2.0,Seedance2.0排队的人太多了就会使用可灵3.0。

Seedance2.0目前最大的局限不在于技术本身,而是使用人次太多。日前,Seedance2.0从最初“地表最强”变为“排队最长”,视频生成时间过长成用户吐槽重灾区。陈旭称,因为团队需要保证每天产出内容,而Seedance2.0哪怕买了最高级会员也需要排队。加上Seedance2.0因为版权合规原因不支持真人人脸,暂时无法满足部分使用需求,所以日常还是会使用可灵3.0。

个人使用体验上,陈旭称,他觉得可灵在画质上优于Seedance2.0,前者质感、锐度更佳,可以原生生成1080p视频,而Seedance2.0默认或部分平台输出常为720p‌视频,需要通过其他工具提升画质,后期处理工序更复杂。其他方面,两者各有优劣。可灵反馈速度快,适合快速迭代和优化,缺点是抽卡率较低,某些复杂镜头难以生成。

Seedance2.0优点是生成效果更智能,能理解并执行更复杂的物理法则和镜头调度,智能化程度高,可基于脚本直接生成可用片段,适合复杂场景。但缺点是排队时间长,反馈周期长导致生产效率变低,画质较差,且不支持真人人脸识别。

可灵与即梦抽卡率大概是2:1或3:1,描述精准的情况下,两者差异不太大。

价格方面,目前可灵年会员分四种,最贵的黑金会员费用为11079元/年。即梦高级会员连续包年费用是2599元/年。不过,不少影视从业者表示,实际生成视频成本上,二者相差不大。

03 两强争霸,谁能笑到最后?

可灵曾在视频生成赛道一度领先,但现在声量与热度被Seedance2.0反超,看起来,可灵未来的挑战更大。

互联网投资人庄明浩分析称,从行业视角来看,现在主流观点认为字节已领先了,不仅仅是对于可灵,而是对整个行业而言。但Seedance2.0与可灵背后的字节、快手两家母公司,在AI视频领域都不可能犹豫跟纠结,哪怕一家模型在一段时间内领先,另外一家也不会动摇。只是在投入跟重视程度上可能会有区别,快手在可灵上的投入被一些投资人认为不足,而且从股价来看,资本市场似乎并未给予其更高的估值溢价。相对于智谱和Minimax而言,快手股价并没有因为可灵能力的提升得到边际增强。

字节因为Seedance2.0,不仅仅盘活了即梦,可能还有火山、小云雀、豆包、抖音等多个产品线,盘活的是字节整个视频生态。

今年多模态领域的竞争边际加剧,国内厂商更加激进。从模型本身来看,各家都在解决一致性、可控性等战术层面的问题。与此同时,出现了一定程度的分化。庄明浩称,同为视频模型领域的可灵和Seedance在当前阶段已经有所区隔,可灵3.0过去一段时间的版本更迭瞄准专业用户内容生产,Seedance更想做的是帮助普通用户做表达。

字节的野望可能并非仅仅打造一个视频工具。庄明浩认为,字节的野心在于构建AI时代的视频社区乃至“AI时代的抖音”,将视频模型视为新时代的“摄像头”。尽管当前所有玩家仍需通过工具和订阅模式解决现实问题,但字节将社区视为不可放弃的“诗和远方”,是其核心能力的自然延伸。

至于AI视频工具的未来,庄明浩表示,从去年底热议的“世界模型”看,实时生成,无限流视频生成路径,达到理想的“言出法随”状态有可能是视频生成赛道终极形态之一。目前,ToB、ToC分不出对错,模型本身还是模型之上的产品哪个意义更大也不好说。在推演过程中,资源更强的一方被认为会越来越强势。

在资源与投入方面,字节现阶段显然更为强势。字节与快手在视频生成模型投入上,可能相差数十倍。而且,从内部组织架构来看,快手频繁的高管变动对业务增长显得颇为掣肘。去年8月,快手前副总裁,被称为“可灵之父”的技术负责人张迪离职,快手高级副总裁盖坤兼任可灵AI技术负责人。2025年底,可灵基础大模型负责人周国睿也被曝离职。

雪球平台上,有用户称,快手可灵2026年公司内部制定的营收目标大致在30-35亿。如果该目标属实,意味着可灵营收目标比去年翻番。从目前行业竞争环境来看,完成难度不言而喻。

作者:翟元元

来源:Tech星球

]]>
零门槛做爆款视频!Seedance 2.0五大应用场景拆解 //m.clubpenjuin.com/379807.html Tue, 03 Mar 2026 08:19:56 +0000 //m.clubpenjuin.com/?p=379807

 

字节跳动全新的视频生成大模型Seedance 2.0一经发布,便在AI创作圈掀起巨浪,给行业同类产品带来了前所未有的冲击。

最近这段时间,我刷了上百个基于Seedance 2.0生成的视频作品,从中梳理出了最具代表性、实用性拉满的5大核心应用场景,今天就带大家逐个拆解,看完就能快速上手~

01 精准复刻角色动作

第一个也是目前大家玩得最多的场景,就是精准复刻动作。目前网上刷屏的Seedance 2.0演示视频里,有相当大的比例都集中在这一功能上:用自定义的角色和场景,1:1还原参考视频里的动作与神态。

操作逻辑很简单:只需要上传自定义的角色图、场景图,再搭配一段电影中的角色动作参考视频,模型就能精准地把参考视频里的人物面部表情、肢体动作,完整映射到你自定义的角色上,动作丝滑不卡顿,人物一致性拉满,彻底解决了以往AI视频常见的角色崩脸、动作错位、穿模等核心痛点。

AI视频示例效果如下

更值得一提的是,它还能和Kimi 2.5这类大语言模型无缝联动:先用大模型生成剧本、分镜、首帧关键画面,再用Seedance 2.0完成动作复刻与视频生成,一套完整的动画创作工作流,零专业基础就能全程跑通。

02 生成网站/APP宣传视频

第二个超实用的落地场景,是网站/APP的宣传视频制作。Seedance 2.0在产品宣传类视频的动效生成上,表现堪称惊艳。

你只需要提供产品界面截图,再加上几句清晰的创意提示词,就能生成一段画面流畅、动效专业、节奏适配的产品宣传短片。

这对于预算有限、请不起专业动态设计团队的初创公司、独立开发者来说,堪称降维福音。

相比传统制作流程,它的生成速度更快、制作成本几乎可以忽略不计,而且纯AI生成的画面质感,完全能满足商用宣传的基础需求。

在Seedance 2.0不用写一行代码,不用调试复杂的动画参数,不用反复修改关键帧,只要你能把创意说清楚,就能生成符合预期的宣传动画,真正实现了“所想即所得”。

03 单张图片生成故事短片

第三个应用场景,绝对是动画从业者和爱好者的福音——上传图片生成完整叙事的短片。
只需要一张角色参考图,就能生成一段15秒、带多镜头自然切换、匹配高保真人声对白与贴合背景音乐的完整动画短片。

例如下面这张示例图片

给模型一段详细的场景与剧情描述,它就能基于这张参考图,智能拓展完整的故事场景,自动补充和剧情高度契合的配角、道具与环境细节,镜头语言流畅自然,完全没有以往AI视频常见的生硬跳转、画面割裂问题。
生成的AI视频案例效果如下,来源@尾鳍Vicky。

这是不是意味着,传统动画工作室的技术壁垒正在被打破?

哪怕你没有系统学过动画制作、不会手绘、不会调关键帧,只要有创意、有想法,就能当自己故事的导演和动画师。

04 批量生成真人UGC带货视频

第四个核心场景,是电商营销人员刚需的真人UGC内容批量生成。
做过电商带货的朋友都知道,UGC口播视频是引流转化的核心,但传统拍摄成本高,还很难保证稳定的产出效率。

而此前的很多AI视频模型,要么没法保证产品出镜的形态、细节一致性,要么生成的数字人表情僵硬、口型对不上、肢体动作违和,达不到商用标准。

例如下面这张示例图片

生成的AI视频案例效果如下

Seedance 2.0解决了这些行业痛点:生成的真人出镜视频,人物表情自然,肢体动作流畅,口型和台词完美匹配,就连产品的细节、质感呈现都高度一致,全程没有违和感,和真人实拍的效果几乎没有差别。

这类高度拟真的UGC视频,能快速拉近和用户的距离、建立消费信任感,为产品带来大量流量。

利用Seedance还可以生成带产品植入的视频,用趣味性的效果吸引用户。只要你有创意、有产品卖点,Seedance 2.0就能批量产出高质量的营销视频。

05 多模态输入一键融合

最后一个场景,不是一个可以照搬的具体应用案例,但却是这次Seedance 2.0最核心、最容易被忽略的技术突破。

熟悉AI视频生成的朋友都知道,目前行业内的主流模型,不管是国内的可灵,还是海外的Sora、Veo,大多只支持少数几种输入类型的组合,没法做到全模态素材的同步识别、理解与融合。

而Seedance 2.0可以在同一条提示词里,同时输入文本描述、角色参考图、动作参考视频、背景音频/人声台词,模型能一次性识别所有素材的核心信息,精准融合所有创作要求,生成一段完整、连贯、符合预期的成品视频。

所有创意素材一次性输入,不需要再分步骤处理画面、动作、声音,也不用在多个工具之间反复切换导出,就能直接生出最终的成品。不仅简化了操作流程,也革新了AI视频创作逻辑。

最后以上就是近期梳理的Seedance 2.0具有代表性的5个核心应用场景,无论是个人创作者、自媒体人,还是初创团队、企业营销部门,几乎都能找到适配自己需求的用法。

作为一款刚发布的全新大模型,Seedance 2.0的玩法远不止这些。如果你还发现了其他更有趣、更实用的应用场景,欢迎留言分享,一起解锁更多AI视频创作的新可能~

作者:Clip设计夹

来源:Clip设计夹

]]>
即梦Seedance 2.0又出10种神级玩法! //m.clubpenjuin.com/379624.html Wed, 25 Feb 2026 01:10:36 +0000 //m.clubpenjuin.com/?p=379624

 

来不及解释了,大家玩Seedance 2.0都玩疯了,

我凌晨四点都还在排队,每当我以为玩法总结差不多的时候,就又看到了一堆好玩的。这篇文章我就直接把十种玩法要的素材和提示语都做出来了,开袋即食。

先超简单回顾一下Seedance 2.0是怎么用的,

即梦里使用视频生成模式,打开全能参考,就可以上传文件生成了,豆包和小云雀的互动逻辑也都差不多。

Seedance 2.0现在支持图像,视频,音频,文本四种模态输入,混合输入总上限是 12 个文件,量大管饱。

这两天即梦还上线了图片5.0 Preview(也就是Seedream 5.0 Lite)图片模型,4k版本目前只有在即梦上才能体验,这次我结合在一起玩了一下。

Gogogo,快来看看这一大筐玩法,以及Seedream 5.0 Lite和Seedance 2.0的组合用法,

首先就是我一直想做的,让我家小猫和奥特曼对战的一个场景,之前要用两个模型,一个Banana2生成九宫格,一个sora2在九宫格基础上生成视频,但现在Seedance 2.0也可以做出九宫格分镜图生成连贯视频的操作了,动作和运镜转换超级丝滑,论导演的分镜思维这块。。。

操作过程so easy,

先用我的小猫生成一张和我想用的角色对战的场景图,5.0 Lite 现在目前对于角色的复刻做得还是不错的。然后我可以直接用这张图片,让 5.0 Lite给我做一张九宫格的分镜图,

使用这张图作为第一个分镜,给我生成一张两个角色对战打斗的大动作九宫格分镜图,每个分镜使用不同的景别,电影分镜的对战动作设计,把九个分镜图放在一张图中,保证每一个分镜图没有物理规律上的错误

然后这张图可以直接通过生成视频的小窗跳转到即梦下方的生成视频功能,步骤非常方便,

再用这个提示语就能做出上面给到那个带有动作和运镜的连贯打斗镜头了。🐵

根据这张九宫格分镜图,给我直接做出一段非常连贯丝滑的拟人巨猫和红色巨人对战的视频片段,连贯的动作展现出精彩的打斗

如果你不知道这些动作要怎么写,我们也可以直接给 Seedance 2.0 提供一个带有动作的视频,给出人物形象图片还有场景图,让这些人物出现在视频中,并按照你提供的视频动作进行打斗对战。

这里需要注意的是,上传的视频素材必须在 15 秒以内。而且即梦对于素材的尺寸有很高的要求,我这里实测,只要提供 720p 左右的视频素材基本上都是可以的。

我这里直接做了一个对比,将我提供的原始打斗动作视频与生成的视频进行了演示。我提供的原始视频实际上只是一个没有经过渲染、类似建模画面。

但是,它可以直接把我想要的人物按照视频中的形象和风格渲染上去。人物动作,分镜和运镜几乎与原视频保持的非常一致。

说实话,以前要是按照提示语去写这样的一个分镜图或者画面内容,不知道要写多少提示词才能做到。但今天 Seedance 2.0只要给个视频就可以了。

当然,如果你想自己输入一段非常简单的提示词,它也可以做出一段非常精彩的打斗效果。

这里我尝试让自己和我家的猫进入到最近很火的“邵氏兄弟武侠电影风格”场景中,实现了一段非常流畅丝滑的打斗。

这三天测试下来,我发现如果只是提供图片作为参考,所消耗的积分要比同时提供图片和视频素材给模型参考时要少一半。

或者你就是想复刻某一段动画里的运镜镜头,也只需要把想要复刻的片段上传上去,这里我用到的人物、大鸟坐骑以及场景图片,都是用Seedream 5.0 Lite图片模型生成的,不同的主体也能保持一致的画风。

然后写好下面这个提示语,其实主要就是把每一张图片中的人物,对应视频中的哪一个元素写清楚,然后就可以直接生成了。

我同样是做了一个原视频和生成视频的对比效果,

虽然不是百分百完全复刻,但是这个效果至少已经能够做到七八成。而且,整个镜头中比较明显、比较突出的运镜也已经做到了。就这个效果放在之前,我是会有质疑到底能不能通过提示词做到这种运镜效果的。

还有一个很好玩的是,我们其实可以直接用 Seedream 5.0 Lite图片模型去做一个四格漫画,提示语这里我有一个模板,大家可以根据这个剧情去修改,这个5.0图片模型的文字效果稍微有点弱,但是他们会在年后对这个版本进行一个更新。🎉

请生成一张竖版四格搞笑漫画,四格从上到下排列,画风为简洁国产条漫风,大头小身、圆眼睛、表情夸张但线条干净,背景简单,颜色清爽,文字为清晰中文气泡,像印刷漫画一样可读。
角色设定
同一位男主角,普通打工人,黑短发,灰色卫衣或灰色T恤,背单肩包
同一位上司,深色西装或衬衫,表情严肃
四格分镜与台词
第一格,办公室门口,男主探头进来,满头汗,上司站在门边盯着他
男主气泡:不好意思我迟到了,路上堵车
上司气泡:你家到公司三分钟路
第二格,镜头更近,上司皱眉,男主认真解释
男主气泡:电梯坏了,我走楼梯上来的
上司气泡:你在一楼
第三格,男主表情更紧张,突然灵机一动,抬手比划
男主气泡:我在路上还见义勇为了
上司气泡:你救了谁
第四格,反转,场景切到公司楼下花园,男生和另一个老头聊天,那个老头说:“你好,我叫义勇为”
画面要求
四格边框清晰,气泡不要遮脸,字要清晰不糊,上司表情要有那种无语凝噎的停顿感,整体节奏轻快。

然后我们就可以得到这样的一张四格漫画图。

把这张图片放到 Seedance 2.0 中,再给他一个你想要展示的动画视频类型,让他学习这段动画的风格,再给他这段提示词,

他就可以直接帮你复刻,把四格漫画做成一段连贯的小动画。我宣布AI漫剧这块我承包了!

或者我可以让他直接给我复刻抖音上很火的 @陶阿狗 的特效视频,我直接用它做了一个小猫版本的。

实话实说,如果是让我自己手抠的话,我是做不出来的,但是现在Seedance 2.0做到了。

还有一个很牛的就是 Seedance 2.0 还可以做出文字或者logo的释出动画,我还直接用提示词让他给我做了一个我自己的 logo 文字视频动画。这要是放在以前,绝对是要会AE的人才能做出这种效果。。。

之前即使我用 AI 去做这种类型的文字动画,给到的版本其实还是稍微有些粗糙的。但是现在Seedance 2.0给到的版本,几乎和AE渲染的没差别了。

更厉害的点是,Seedance 2.0可以直接根据我们提供图片中的文字去生成一段视频。

我测试了很多遍,提供的文字内容我们要判断一下能不能在15秒内呈现出来,塞的内容不要太多。

这里我给 Seedance 2.0 提供了三张十日终焉开头的小说截图,然后它就给我生成了对应的剧情。

根据图中的文字内容做出相应的画面

你们可以看到,它对应这些图中的文字,呈现了一整段的内容(虽然时钟的时间错位了),我觉得看过这本小说的人就能发现,这个味道是特别对的。尤其文字中会有很多对于环境氛围的描述词,包括人数、整体的氛围感,它都拿捏得很到位,而且还能自动生成文字不崩坏的字幕。

这里有一个小 tips,

如果大家在使用 Seedance 2.0 的时候,会发现它在 80% 以上的情况下,都会自动给视频加上 BGM 和字幕。如果大家不需要音乐和字幕,可以直接在提示词中告诉它“不要 BGM”,“不要字幕”就可以了。

甚至不只是这种纯文字图片,如果我做好了一个脚本,我甚至可以把这种表格形式的脚本图片发给 Seedance 2.0,让它直接根据脚本中的分镜去做一个完整的视频。

整个视频呈现出来的效果让我非常震惊,它真的能够识别每一个镜头对应的画面景别,人物对白等细节,然后直接输出一个成片给我。

说实话,这个真的让我有点惊到了。如果你是一个做广告的公司,甚至可以不需要预拍了,去给甲方提案的时候可以做个成片,让他们看预览效果。

如果你提供了一个完整的产品图片,这甚至能作为一个几乎可以完整使用的小片。目前唯一需要提升的就是 Seedance 2.0 的清晰度。如果清晰度能再进一步,我觉得甚至可以直接拿去用了。

最后就是藏师傅发现的,可以直接上传一些我们平时旅行时拍的照片,让 Seedance 2.0给我们做出一段Vlog。

我年底去马来西亚拍的照有救了,

它没有改动原图,而且还会卡点,加一些小特效。我没有告诉它我去游玩的地方是哪里,它竟然能够识别出来,说明它是有一定的世界知识的。

平时分享生活肯定够用了,甚至弥补了一些朋友在出去玩回来后,想做动态视频展现却觉得花时间、麻烦、有难度的痛点。

没想到这一圈盘下来,排队就排到晚上十点了,但隔壁老外比我更惨,排都排不上,

这两天还有人发现有的时候不能传真人素材,我去验证了,目前在web端确实提醒了暂不支持真人人脸,但在app端,完成真人校验后,你依然可以让自己出演AI视频。

这是一个必然的过程,一方面,像Seedance 2.0这样强大的模型,它在技术上追求生成内容的极致真实。

因为它知道,更强的复刻能力,意味着更强的艺术表现力,能为我们创作者带来更大的创作自由。

但另一方面,平台也在积极地探索,如何为这种强大的能力,建立起必要的护栏。在鼓励创作和保护个人信息安全之间,寻找一个微妙的平衡。

当AI生成的内容,在像素层面,在物理规律层面,甚至在情感表达层面,都达到了与真实世界难以分辨的程度时,我们该如何与之共存?

今天的Seedance 2.0,其实已经给了我们一个答案的雏形。

平台和我们创作者要做的,就是共同去建立一套成熟理性的规则。

我们追求AI的真,是为了让我们的想象力,以最逼真的方式呈现

同时,我们也需要一个清晰的边界,来守护真实世界里,每一个人的权利和尊严。

作者:卡尔的AI沃茨

来源:卡尔的AI沃茨

]]>
深度复盘 Seedance 2.0:当 AI 视频不再「抽卡」 //m.clubpenjuin.com/379500.html Thu, 12 Feb 2026 01:10:50 +0000 //m.clubpenjuin.com/?p=379500

 

时间来到 2026 年初,如果我们回看过去两年的 AI 视频赛道,会发现一个有趣的现象:2024 年和 2025 年,我们处于一个「彩票时代」。

无论是玩 Sora 还是 Runway,本质上我们都在通过 Prompt(提示词)进行「抽卡」。

运气好,能跑出一段惊艳的 3 秒视频;运气不好,人物的手指可能还是六根,或者物理规律完全崩坏。

那时的 AI 视频,更多是作为「Demo」存在的,它在技术圈层里狂欢,但在真实的商业交付场景——尤其是电商广告中,却很难落地。

为什么?因为甲方爸爸不需要随机的惊喜,他们需要确定性的控制

然而,随着字节跳动 Seedance 2.0 的发布,我感觉到风向彻底变了。

如果说 OpenAI 的 Sora 2.0 还在执着于模拟物理世界的真实,那么 Seedance 2.0 则赤裸裸地展示了字节系的野心:我不关心物理引力是否完美,我只关心这条视频能不能在 3 秒内抓住用户的眼球,然后卖出货去。

今天,我想跳出单纯的技术参数,从产品架构和商业应用(特别是电商电梯广告)的视角,复盘 Seedance 2.0 是如何让 AI 视频从「玩具」变成「工业机器」的。

一、 从「概率抽奖」到「导演意志」

做过内容工具的 PM 都知道,AIGC 在 B 端落地的最大痛点是「不可控」

在 Seedance 2.0 之前,我们想生成一支口红广告,提示词写了「优雅的旋转」,模型可能会生成一段口红在空中乱飞的视频。这种随机性对于艺术创作是灵感,对于商业广告就是灾难。

Seedance 2.0 给出的解法是:极致的可控性(Controllability)

它不再是一个黑盒。通过引入更精细的控制层,它允许我们像导演一样,精准定义运镜方式(Pan, Tilt, Zoom)、定义光影变化,甚至锁死人物 ID。这意味着,同一个 AI 模特,可以在第一个镜头里涂口红,在第二个镜头里走秀,而不会像以前那样换个镜头就换了张脸。

这种「多镜头叙事一致性」的突破,是 AI 视频迈向工业化的第一步。它让 AI 从生成零碎素材的工具,变成了能够产出完整故事脚本的生产力平台。

二、 Sora 懂物理,但 Seedance 懂「节奏」

作为产品经理,在对比 OpenAI 的 Sora 2.0 和字节的 Seedance 2.0 时,我看到了两种截然不同的产品哲学。

Sora 2.0 是「科学家」。 它痴迷于构建一个通用的世界模拟器(World Simulator)。它生成的视频,水流的波纹符合流体力学,光线的折射符合光学原理。它追求的是长镜头的连贯和物理的极致真实。

Seedance 2.0 是「剪辑师」。 它不仅生成视频,它还生成声音,并且让这两者原生融合。

在电商广告中,视觉只是信息的一半,另一半是听觉。Seedance 2.0 的核心壁垒在于它的原生多模态融合(Native Multimodal Fusion)。它不是先有视频再配乐,而是在生成的瞬间,画面就踩在了音乐的鼓点(Beat)上。

这种「音画同步」的能力,对于短视频和电梯广告来说是致命的降维打击。Sora 生成的是默片,需要后期团队花大量时间去配音、卡点;而 Seedance 生成的是自带 BGM、卡点精准的「成品」。在抖音和小红书的逻辑里,节奏感就是留存率,节奏感就是转化率。

三、重构 15 秒的战场

为什么我要特别提到「电梯广告」?因为这是电商营销中最残酷的修罗场。

在分众传媒的电梯屏里,你只有 15 秒,甚至只有黄金前 3 秒。如果不能瞬间抓住打工人的注意力,你的广告费就打水漂了。

传统的电梯广告制作流程是:策划 -> 拍摄 -> 剪辑 -> 配乐 -> 渲染。一条高质量的 TVC,成本几万到几十万,周期两周起步。这就导致了一个问题:试错成本极高。 你不敢轻易尝试大胆的创意,因为一旦失败,钱和时间都没了。

Seedance 2.0 彻底重构了这个模型。

  1. 边际成本归零: 生成 100 条不同风格的 AI 广告,成本可能只相当于传统拍摄一条的费用。
  2. A/B 测试的工业化: 我们可以针对同一款产品,用 Seedance 生成 10 个版本的视频:有的主打情感,有的主打洗脑,有的主打视觉冲击。然后小范围投放,看哪个数据好,就全量推哪个。
  3. 注意力的科学: Seedance 2.0 内置的运镜模版,是基于字节跳动海量数据训练出来的「高转化模版」。它知道什么样的转场能让人不划走,什么样的音效能让人抬头看屏幕。

四、 产品经理的新基建

面对 Seedance 2.0 带来的变革,我们作为广告科技(AdTech)或内容平台的产品经理,应该如何应对?

1. 从「工具箱」转向「流水线」 我们不能再只提供单一的生成工具。未来的产品形态应该是:脚本生成(LLM) -> 分镜控制(Seedance) -> 音画合成 -> 投放数据回流。我们需要构建的是一条自动化的内容生产流水线。

2. 建立「数字资产库」 既然 Seedance 2.0 支持人物和商品的一致性,那么品牌方的核心资产就不再是拍摄的素材,而是数字化身(Digital Avatar)和3D 商品模型。产品经理需要设计一套高效的资产管理系统(DAM),让品牌方能够一键调用自己的「虚拟代言人」。

3. 关注「多模态交互」 Seedance 2.0 的强项是音画同步。我们在设计编辑器时,不能再把音频轨道作为视频轨道的附属。音频波形图应该成为驱动视频生成的关键维度。让用户通过选择音乐情绪来反推画面风格,或许是更符合直觉的交互方式。

结语

Seedance 2.0 的出现,标志着 AI 视频正式走出了实验室的象牙塔,跳进了商业变现的红海。

对于 OpenAI 来说,Sora 也许是通往 AGI(通用人工智能)的一块拼图;但对于字节跳动和我们这些商业产品经理来说,Seedance 2.0 是一台更加精密的印钞机。

它不再追求模拟物理世界的完美,它只追求在 15 秒内,用最完美的节奏和画面,击中你的多巴胺,让你掏出钱包。这很现实,但这也很「产品」。

作者:靠谱瓦叔

]]>
AI封神!Seedance 2.0 喂饭级实操手册! //m.clubpenjuin.com/379502.html Wed, 11 Feb 2026 08:31:31 +0000 //m.clubpenjuin.com/?p=379502
即梦新出的 Seedance 2.0。 这次不只是画质升级,真正的王炸是——“全能参考”。

一、快速说清楚 Seedance 2.0

Seedance 2.0 是字节出品的多模态AI视频生成工具,支持同时输入图片、视频、音频、文字四种素材,生成最长 15 秒的高质量视频,并自带音效和配乐。你可以把它理解为一个听得懂自然语言的 AI 导演助手

目前Seedance 2.0号称最强AI视频生成模型,热度非常大,这篇教程就是基于这段时间的玩法和反馈,参考产品功能和文档,梳理的一份新手保姆级教程。

Seedance2.0可以通过即梦AI会员小云雀体验,该教程使用的是即梦AI。

二、两种入口,怎么选?

即梦里面Seedance 2.0有两个入口,根据你的需求选择:

1.首尾帧模式

适用场景:只有一张首帧图(或尾帧图)+ 文字提示词
用法:上传图片 → 写 prompt → 生成
最简单的起步方式,适合新手第一次尝试

2.全能参考模式(推荐)

适用场景:需要混合输入图片 + 视频 + 音频 + 文字
用法:上传多种素材 → 用 @素材名 指定每个素材的用途 → 写 prompt → 生成
这是 2.0 的核心玩法,解锁全部能
三、案例分析

案例 1:图生视频(最基础)

素材

Prompt

画里面的人物心虚的表情,眼睛左右看了看探出画框,快速的将手伸出画框拿起可乐喝了一口,然后露出一脸满足的表情,这时传来脚步声,画中的人物赶紧将可乐放回原位,此时一位西部牛仔拿起杯子里的可乐走了,最后镜头前推画面慢慢变得纯黑背景只有顶光照耀的罐装可乐,画面最下方出现艺术感字幕和旁白:“宜口可乐,不可不尝!” 效果:模型会以你上传的图为第一帧,生成一段符合描述的动态视频,效果如下。

案例 1 升级版:图生视频(参考人物图 生视频)

素材


Prompt

这两张图片是一段悬崖对手戏的两个女主,请围绕两个女主,生成一段流畅的红衣女子东方不败与黑衣女刺客二人对手戏的画面,需要运用到分镜和不同视角切换,让整个画面更有节奏感和电影感。

仅生成打斗音效和环境的音效,不要配背景音乐: 第一个画面:从红衣女子拿起酒壶喝酒开始,环绕运镜到红衣女子背部,然后移镜变焦渐隐看到远处的黑衣女子。

第二个画面:切换无人机航拍大全景。

第三个画面:两个人物的近景特写,红衣女子从容喝酒的表情形态,黑衣女子略带坚毅和复仇的眼神 效果:生成参考图的人物,并遵循提示词的意思,完成具体的动作和画面生成,效果如下(bgm后期加的)。

案例 2:图 + 参考视频(动作复刻)

 

素材:1 张角色图 + 1 段舞蹈视频

图1:

Prompt

@图片1的女星作为主体,参考@视频1的运镜方式进行有节奏的推拉摇移,女星的动作也参考@视频1中女子的舞蹈动作,在舞台上活力十足地表演 效果:模型用你的角色图生成人物,按参考视频的动作节奏跳舞。以前要写一堆运镜术语,现在一段参考视频搞定!

案例 3:图 + 视频 + 音频(全模态组合)

 

素材

图1:

音频1

X限制无法直接上传音频,效果中的的音频既是该音频,大家可以自行上传
 

Prompt

参考@视频1的人物动作和运镜手法,生成@图片1中黑衣人物在竹林将飞刀掷出的视频,视频中只有黑衣女子一个人物。起始帧的视角景别严格参照@视频1,飞刀掷出以后慢动作对焦飞刀,并虚化黑衣人物,注意刀是刀刃的方向向着镜头飞来,做到1比1还原参考视频,仅人物改为黑衣女子。仅生成打斗音效和环境的音效,并加入背景音乐@音频1 效果:

案例 4:剧情补全

 

素材:1张图片、1段视频

图片1:

四、Seedance 2.0 的十大能力亮点

基于官方说明文档,2.0 最值得关注的能力升级如下:

① 基础画质大幅提升

物理规律更合理、动作更流畅、风格更稳定。底层能力全面进化,不只是加了新功能。

② 一致性全面提升

人脸不再”换脸”、商品细节不丢失、字体清晰、场景不跳变。从人脸到服装到文字,全方位稳定。

③ 运镜和动作精准复刻

上传一段参考视频,模型就能模仿电影级走位和运镜。不用写专业术语,传视频就行。

④ 创意模板 / 特效复刻

广告片、电影片段、创意转场——有参考素材,模型就能识别动作节奏、镜头语言并精准复刻。

⑤ 剧情补全能力

给出部分场景和提示,模型能自动补全合理的剧情发展。它不只是工具,还是你的”编剧搭档”。

⑥ 视频平滑延长

不再是生硬拼接,延长后的视频节奏和画面自然衔接。

⑦ 音色更准,声音更真

自带音效和配乐的生成质量显著提升。

⑧ 一镜到底更强

镜头连贯性增强,长镜头不断裂。

⑨ 视频编辑能力

支持对已有视频进行角色替换、片段增删、节奏调整。不用从零开始。

⑩ 音乐卡点

能根据音频节奏自动对齐画面动作。做音乐视频、卡点短视频的福音。

五、新手快速上手三步走

如果你是第一次用,按这个顺序来:

Step 1|试”首尾帧”模式

准备一张好看的图 + 一句描述 → 体验最基础的图生视频

Step 2|试”全能参考”模式

加一段参考视频 → 用 @ 语法指定”参考这个视频的动作” → 体验动作复刻

Step 3|玩”全模态组合”

图 + 视频 + 音频一起上 → 用 @ 语法分配角色 → 体验完整的”导演感”

]]>