一周内,可灵AI将国产视频模型"卷"入生产革命
本周快手旗下可灵AI相继发布多项核心升级新产品,一周内涵盖统一多模态创作引擎可灵O1、可灵音画同出生成模型可灵2.6、将国数字人2.0长内容能力全面升级、产视产革以及主题库与对比模板能力,频模这些产品的型卷推出标志着生成式AI从参数对抗到体验优化阶段的转变,关注点转向商业化能力产品稳定性和可控性工程化效率提升。入生

2025年,一周内在Sora 2、可灵Nano Banana先后惊艳全球之后,将国这一年的产视产革12月,国产视频大模型赛道终于迎来一次罕见的频模产品密集爆发。
快手AI在短短五天内完成了多项关键产品的型卷优化升级:统一多模态创作引擎的版本1.0已于12月1日推出,并于1日至5日期间陆续更新到版本2.6; 其次,入生基于对音画同步制作理解的一周内音频视频生成模型可灵2.6也已在1日至5日期间推出;最后,在主体库和对比模板能力上快手也做出了重大优化升级。
在过去两年中,人工智能(AI)产业经历了从参数比拼到用户体验优化的重要转折点:除了技术迭代之外,商业化能力、产品稳定性及可控性也成为了重点关注的焦点。对于创作者及企业而言,在实际操作层面上这又指向一个问题:“将AI重新构建成工作流”所需的条件是否已经成熟?
正如本届“全能灵感周”展现出的强大体系性成果一般,其在平台呈现上也迎来了全新的面貌:无论是内容创作的架构,还是成品的表达方式都展现了更加系统和完善的布局。
随着行业的现状仍然无法完全满足用户需求,我们可以看出,这个问题的答案取决于AI技术的发展以及相应的商业创新。
大一统的思维模式:一部引擎可以解决“视频分析、生成与编辑”的问题
在这个最新的发布系列中,最值得注意的当属可灵O1这款基础型产品了。
以往的超大规模视频预训练模型普遍沿用模块化方式来构造:文本生成视频是一个模型,图生视频是一个模型,视频编辑又是一个管线。创作者在这两个不同模块之间频繁跳转,在很大程度上是对工具边界进行斗争,并非是在将注意力集中于内容本身
可灵选择了更为符合直觉及用户体验的道路,即它们所采用的一套名为“多模态视觉语言引擎”的工具集,它实现了对视频生成、编辑和理解的整合。
灵提出的革新交互概念是MVRL(Multimodal Video Language)。在这里,“多模态”与“视觉语义”两词并用,将图像、视频与文字看作一种等价可输入的语言。
结果是用户无需花费任何力气就能完成视频创作流中第一阶段的部分工作。他们也不再需要为了在软件内选中主体、画遮罩或者拉时间线而花心思。只需输入一句“把天空改成黄昏”即可获得人物主体稳定,光影重算和风格统一的整套重绘。如果还需要删除路人或替换服装并加入新角色,也只要按原样进行操作即可完成视频创作流阶段的第一步任务。

更具竞争力的是“综合能力式生成”
当前现有的视频AIGC更多依赖于单个任务的工具,涉及到更换模型或重启流程。但是可灵O1则能够一次性地同时执行多个任务,并允许添加新的主体和调整背景设置,甚至支持对图片参考进行风格重绘以及实现场景的首尾帧搭配与扩展功能。这些设计旨在使创作者的工作流不再被视频AI生成技术能力所分割拆解,而是将内容目标作为核心来调度模型的能力,从而提供更加高效和便捷的创作体验。
尤其是在影视制作、自媒体运营和电商广告这类高频度内容生产行业中,一体化模型比仅依赖参数本身产生的商业价值更显著。如果某个创作平台或者AI辅助技术降低了用户的效率,就违背了原设定让这些工具与人的创作过程相辅相成的初衷。
业内人士普遍认为这将开启视频生成的工业化进程。只要能简化操作并允许其同时进行多种任务,那么生产力就会得到质的飞跃。
这是此次可灵O1 的一个目标,它想将视频创作转变为一个标准化的工作流程,并且有着明确的商业考量,因为a16z的投资人、合伙人Justine Moore,在视频行业产品的首次亮相后的第一个反应就让人心头一亮:我们终于迎来了解决了短视频界“小明鼠”问题的产品。

Justine Moore的推文
该反馈反映于用户调研中,即有多位视频制作者在试用阶段主动分享他们对于灵O1产品的感受,并且提供了大量的实用信息和主要经验点在于灵O1具有一致性的操作体验以及多重应用处理的能力。
“有人预测不久将来可能会出现一种技术,这种技术能在一瞬间就把一部电影从创意阶段发展至拍摄和剪辑全部搞定。他预言该软件很可能被称为‘精灵’或者'可灵01'”。
声音和图像一同创作,重构AI的视频制作流程
如果要说可灵O1可以处理好画面输出的话,那么可灵2.6在音频领域的成功便证明了它能够在更广泛的层面进行视频编辑工作,其声效制作方面的创新让其成为业界最具革新性的作品。
在过去,AI视频的工作流程基本是不变的:画面首先生成,声音稍后来到。创作者得靠额外的服务或软件帮助才完成完整的工作。画面与声音就像是两条分离独立的生产线,既杂乱又效率低下且成本昂贵。
C灵2.6希望能够将这两条任务线之间的差异尽可能地平衡和协调,同时在生成同一份文本时把画面、对白、环境声音与动作声音整合同步起来。
就从用户的角度而言,这个功能更加具有流线感和用户体验;另一方面,在工业界里看,这其实是根子上的生产力的提升与提高速度的加速。有市场研究机构人士指出,这项能力的意义绝不仅是让用户体验到更优越的升级,更是有着本质性的生产效率变革。
对于内容创作工作者而言,音画同步意味着三个主要变化:首先,工作流程大幅简化,可以同时进行视频和音频的相关处理而不必经历从视频生成再到使用声效软件处理声音的复杂步骤;其次,制作成本下降,创作者无需额外购买配音服务;此外,行业的更新速度显著加快,创作人员现在可以在不花大量资金的前提下尝试新的想法。
音频图像一同生成时,重点在于提高音频与图像之间及音频的内部结构元素之间的协调性以及意义的一致性。
《可灵2.6》并非将音频简单叠加在一起,而是一直以来坚持的追求:在保持动态画面、语句节奏以及整个环境音场一致性的前提下生成声音,同时人物说话时的嘴型也要与他们的嘴部动作匹配,脚步声和步态自然流畅,背景声音也能随着场景变化做出相应的调整,以模仿实际的声音逻辑而不仅仅依赖于简单的配音技巧。

灵2.6能够产生具有人声、背景噪音以及声音效果的全影片
这种能力的实际价值是它能够独立于画面和音效制作团队完成更加自由、统一的作品。
这意味着无论小型工作室还是个人都能生产完整的视频内容;同时意味着在广告和电商以及动漫短剧行业AI大规模生产和制作已具备基础条件
有用户利用可灵2.6软件批量创作配音动画短视频,并展示出了出色的音频与画面融合效果;某条以音画同步为主题的短片成功在短时间内获得了众多粉丝点赞。观众们也纷纷表达了对于这款功能的欢迎,称它能快速实现视频内容的有效落地,并给予了较高的效率评价。
在内容领域中,“单个内容的价值”直接影响企业的利润空间。“视听一体化”的技术能迅速促进视频领域的人工智能业务从原型阶段向大规模商业化转型。
5天5次密集“上新”,可灵AI率先构建更完整功能生态
连续三天,在可灵的“可灵O1”和“可灵2.6”上进行了火力全开的表现之后,可灵再次将它的核心库存和2.0版本数字人充实到视频生产过程中。
对于可灵数字人来说,在2.0版本中的一项重要升级是增加持续时间长达五分钟的内容播放功能。这使数字人不再是短视频中的简短语音口播载体,它可以用于包含课程、教学、剧情以及商业广告等各种长篇内容的制作与呈现。

已改进的灵数独演能产生更好的情感反应。
这是进入新世界的全新途径,这为企业提供了生产虚拟员工的新机遇。
本周发布的内容是主体库的出现,作为本轮发布周的收尾作品,它的目标就是解决当前在生成能力之外所存在的问题。即当角色从一个镜头转换至另一个时就会改变形象,在更换道具或是调整场景细节时,视频也难以复原原有的效果和状态。这使得AI生成的视频很难满足影视作品或者品牌广告中对连续性要求极高且细致入微的场景展示。
这个新版本的核心特点在于,它为模型提供了一个长期存储数据的功能。

仅需提交多个不同视角的照片即可让 AI 记住您的角色、道具及背景。
用户上传了大量视角参考图像后,模型可以稳定复现出人物、道具和场景的动态——以确保不同任务或视频中都能稳定表现主体没有漂移。这是实现真正视频AI工业化的前提条件,因为任何品牌、IP或影视制作均无法接受核心元素在最终呈现中的任何一幅图都是不同的状态。
与此同时,“对照模板”功能已上线,用户在发布作品时可使用此功能进行模型输入与输出的对照比较,这样就可以看到创意作品生成前后的效果对比。这意味着优秀创作者的工作流将可以被复制或交易,同时也促进了整个平台的流转性。

简述比较功能说明书
截止现在,可灵AI以一周之期就给出了一套清晰的答案:视频AI的胜败将不只取决于画质、审美以及真实性,还包括了O1号机器人的“大一统生成”功能和2.6版本实现的音画一体完美表达;数字人2.0可以完成长达内容的输出,并且能够突破一致性和生产扩散两大难题。
分析人士指出,随着声量逐渐扩大的传播中,有大量围绕可灵O1及2.6版展开的“实测对比”、“落地场景”、以及相关的“教程指南”,C端和P端用户纷纷将围观转为展示实际结果。这是产品从推广阶段走向广泛应用的一种重要信号。
“可灵”率先创建了更充实和完备的应用生态体系,并且将国产视频大模型带到了一个新的加速发展的状态。在这个新趋势中,“可灵”的目标是在未来的大生产场景中推动创作型人工智能的普及。 在生成式AI技术走向实际应用的关键路线图上,下一个关键阶段是创造能够为创作者提供完整有价值内容的生成能力。
这时,灵可便希望能够促进这些改变发生,这将会给我国的文化产业发展带来重大的变化和转变。
快手本周发布多项核心产品与能力升级:可灵O1统一多模态创作引擎、可灵2.6音画同出的生成模型、数字人2.0长内容能力全面升级和主体库对比模板能力,这些升级标志着生成式AI产业从参数竞赛转向关注商业实用性、稳定性、可控程度和工程效率方面。

到2025年末时,来自两个知名角色——《Sora 2》与《Nano Banana》的高人气,已在全球范围内吸引了广泛的关注;就在这一年即将接近尾声之际,国内在短视频生成领域内的大模型赛道上也出现了一波罕见的产品密集爆发现象。
从12月1日到5日快手可灵AI连续发布了五项核心产品与能力更新:统一多模态创作引擎“可灵 O1”、能同时生成视频与音频内容的视频模型“可灵 2.6”、进一步扩展的数字人系列,以及更加专业化的创作者库和模板库。
在过去两年里,生成式AI行业经历了从参数比拼转为优化体验的过程:模型技术革新外,商业化能力、产品稳定性和可控程度以及工程效率的提升成了产业中各方关注的重点。就用户而言,在具体操作层面,则意味着“重构工作流程”的条件是否已经成熟,这既是创作和企业的当务之急。
如本次举办的“全能灵感周”,可以看作是一个由内而外的革新,它使得整个创作过程更加高效化,将内容编辑流程划分为若干阶段,从而实现了在每一个细节上都力求精确和完善的升级。
当行业正继续尝试打破内容可用性标准时,可灵提出了关键疑问:那么用人工智能去生产的完整的和能够被观看的内容这件事情能否实现规模化发展?
统一的视角,一个引擎就能搞定 “视频理解和创建”的挑战。
在本轮的发布当中,《可灵》O1是一款具有里程碑意义的产品。
过去的视频大模型多采用工具拼接式的路线:文本生成视频属于一个模型;图生视频属于另一个模型;视频编辑则是一个独立的环节。创作者频繁跳动于不同工具之间,其根本目的在于与软件间的界限抗争而非专注于创造优质的内容本身。
灵活的O1选择了更为顺应本能与用户体验的方式:它集中精力开发一套“跨模态视觉语言引擎”,其目的在于使其成为能高效生成、编辑、理解和分析多模态视觉信息的整体解决方案。
可灵提出了一个创新性的交互模式--Multi-modal Visual Language(MVL)。在这里,图片、视频与文本被视为一种多样化的媒介而被共同接纳,它们彼此之间并不是孤立存在的,“语言”的概念在这三种元素面前变得同样普遍,不再有隔阂和界限。
结果显而易见,在视频创作中,“手绘”的概念第一次被重新定义和推广到主流水平。以往创作者在制作视频时都需要花费大量的时间来解决复杂的操作问题:如如何从软件中挑选主体、绘制遮罩以及进行镜头时间线的调整等。然而,随着技术的发展,这一切如今已变得轻而易举。“只需要一句‘把天空改为黄昏’,模型就完成了一套整套的人像稳定和光影渲染工作。”对于想要快速提升创作效率并达到更高艺术水准的创作者来说,这种即时反馈的创作体验无疑是一种重大突破。

更具行业的价值的是“能力组合式的生成”。
现有的AIGC平台更多专注于单一功能模块,比如视频添加角色、改编风格等可能涉及更换预训练模型或重启流程,然而可灵O1具备一次指令实现多任务叠加,并且能够添加主体、调整背景及图片参考、以及风格重绘,还能实现首尾帧与场景的完美衔接。该创作流程无需对工具能力拆分调用,而是基于内容目标安排模型执行策略,使工作流得以更为无缝地串联起来。
尤其是对于视频和短视频平台、网络博主、电商广告等高频次、低容错、流程复杂内容领域而言,这种一体化模型的商业价值远超过了参数本身。因为一旦工具阻断了创作过程,意味着在成本和效率方面无法有效控制,这恰恰背离了将AIGC技术融入工作流的核心意图
业界普遍认同,这是一个从技术层面推动行业工业化进程的重要转变。只有在可以不需要复杂的交互就完成多项任务的情况下,生产效率才能得到质的飞跃。
这是我的目标之一,在这一行里把视频创作推动到统一操作系统,我们的业务有明确的目标参照点:a16z的投资人Justine Moore在发布会后给予高度评价:“终于,视频领域迎来了Nanobanana这样的操作系统的创新产品。”

Justine Moore的推文
这种情况反映在用户的回馈之中。有多位视频作者在其发布的周间试用且共享了可灵O1的使用经验,并强调他们对这款产品的整体性及多重操作处理的能力表示肯定和满意。
一位对这类人工智能技术持谨慎态度的人士评论道:“要是哪天能有一种功能出现,一句话便能把电影创作的所有过程囊括进来。到时候这部软件可能就叫做‘可灵O1’。”
《音与画相生一:重塑人工智能视频创作流程》
如果说“可灵”可以处理画面,那它下一步的工作就是处理声音工程了。
在过去,创建视频作品通常是完全手工的过程,并非是自动化的流程。这包括从生成画面到填充背景的声音过程。创作者需要额外依靠配音工具和剪辑软件等技术才能将这两部分完美结合完成整部作品,而且在时间管理和制作费用上也相对较低效。
《可灵2.6》力求最大限度地缩短两条任务线之间的时间间隔,在同一时刻内输出画面、语音和背景噪音等,以确保在一次调用过程中完整呈现这些内容。
就用户体验而言,这项新的功能使其设计流程变得更为顺滑自然,而在商业视角度,则是加速整个生产线的有效手段。某一位业界人士认为,这一改变不仅能显著改善用户的使用感受,而且在深层次上重塑了产业生产模式和节奏。
对于内容创作者而言,音画同步意味着三个变化:首先,工作流被压缩,无需再经历从画面生成到使用音频软件处理声音再到剪辑这多个阶段的流程;其次,成本大幅降低,不再需要额外购买配音服务;最后,整个行业的迭代速度加快,创作变得更为便捷,创作者可以用低成本试错。
在这个过程中,准确的音频和画面协调是关键所在。
并非仅依靠单一的声音元素来构成整体画面效果,相反,“可灵2.6”致力于在保持动态图像、语句节奏感、以及真实沉浸式音场的统一的前提下进行声音的合成。“人物说话时嘴型匹配”,而脚下的脚步声与身体动作则能同步生成;“环境声音随场景变换”,仿佛置身于特定的画面,这些都来源于精心设计的声音模拟与逻辑思维。

《灵巧》版本的软件能产生具有声音和背景音乐以及特效声音的整体电影片段。
其实际用途是,通过视频创造者的实力可以灵活地不受到画面上的声音部分和音乐部分协作方式的限制,来有效地、平稳地完成创作任务。
这预示着,小团队甚至个人创作都能产出完整视频内容,从而标志着整个广告、电商和动漫行业具备大规模应用人工智能技术的条件。
一位创作者利用可灵2.6功能创作的配音动画短视频大获成功,视频不仅获得大量点赞,甚至还在评论区引起了广泛的讨论,关于其“商用价值”“提升工作效率”以及可能的实际应用场景等话题引发了热烈反响和深入讨论。
在内容行业里,“单个单元的内容成本”是影响商业模式的重要因素。“视听一体化”技术能够加速AI视频生产的可实施和盈利模式的形成与推广。
短短五日,即可灵AI推出了多达五款全新的产品与服务,并且其迅速扩展并完善了自身的生态系统。
在前3天中,由可灵O1与可灵2.6主导的连续攻势,在视频制作领域的冲击波刚刚退去,接着由主体库和2.0版本的新一代数字人继续填补了这方面的空白。
在可灵数字人2.0的最新版本中,最重大的升级莫过于能够持续创作并输出长达5分钟的内容的能力。这赋予了数字人的能力,在过去的视频播放功能之外,不仅能口播,还能制作完整的课程,以及讲述故事或者进行商品宣传。

“可灵数字人”升级至最新版本后表演能力得到进一步增强,并且能够更加细腻地表达情感。
此举使得教育、培训和企业宣传等行业内崭露新机遇,企业或许将能实现规模化的数字员工团队。
作为这一周发布的收官之作,主体库的推出旨在解决视频生成领域的关键问题——即基础能力之外的一致性缺失。由于角色换一个镜头就会突然改头换面,道具转场时会变得面目全非,细节复现难以令人信服,这使得AI视频在影视、广告等需要保持连续性和一致性的场景中遭遇难题。
这个改变的目的是为了为模型添加“持久性”特性。

仅需要提供多维度参考图片,就能让你的角色、道具以及场景被记忆。
用户提交多个角度的参考图像后,模型就能保持人物、道具和场景等重要视觉元素不变,无论是在不同的任务场景下还是不同视频剪辑里,主体始终稳定不变。这是视频AI工业化的基础,对于品牌商而言,他们不可能容忍视频内容中出现哪怕一帧画面的不同,只有核心要素保持一致,才可能获得一致的观众体验。
与此同时,“比对模板”上线,在创作发布时,用户能使用比对模版功能将模型的输入与输出组合呈现,并展示创意作品生成前后的对比。这预示着未来优秀的创作者的工作流程可被复制、交易以及再次使用,平台亦由工具转变为生态。

展示模板的功能详解
短短一周内,可灵AI对行业抛出一个明确的答案,视频AI的最终评判不仅仅取决于画质、审美、真实性的考量,还包括了可灵O1解决了的“大一统生成”,以及可灵2.6带来的“音画同出完整表达”,数字人2.0完成的“长内容输出”;主体库和模板能力也攻克了“一致性”与“生产扩散”的难题。
有分析人士指出,随着传播力度的扩大,在围绕可灵O1及可灵2.6的产品功能、性能等方面内容以及与之相关的实测对比、落地场景、教程指南等主题的讨论持续升温之际,已经有不少C端和P端用户从对发布产品的围观转变为分享产品效果,这种转向可能意味着工具型产品的推广步入了更为成熟阶段。
首先,灵可率先建立了更加丰富多彩和完善的模型生态系统,使得在国产视频超大规模模型领域的步伐变得更快更强有力。随着生成式人工智能逐渐驶向商业化应用的方向,在即将到来的产业道路上,至关重要的便是为创作人员提供一个平台,让他们能够利用人工智能生成高质量的内容作品。
这时的可灵便期待着这场变革的出现,它所影响的不仅仅是一种内容产业的结构化重组,在这一变革的作用下,它的作用将被大大增强。