| 
 EPFL 团队开源的 Stable Video Infinity(SVI)突破 AI 视频生成时长限制,通过误差循环技术动态修正累积错误,支持多场景叙事、音频 / 骨骼驱动等复杂任务,10 分钟《猫和老鼠》演示验证其稳定性。 一、SVI长视频生成介绍你还在为 AI 生成视频时长太短而烦恼吗?还在纠结视频画面 "漂移"、场景断层吗?今天给大家介绍一个颠覆性的开源项目 ——Stable Video Infinity(SVI),它能让 AI 生成视频突破时长限制,轻松产出 10 分钟甚至更长的连贯内容! 什么是 Stable Video Infinity? 
 来自瑞士联邦理工学院(EPFL)VITA 实验室的研究者们,推出了这款名为 "稳定视频无限" 的模型。它最牛的地方在于:彻底打破视频生成的时长枷锁,无论是多场景短片、单镜头动画,还是音频驱动的对话视频、骨骼控制的舞蹈动画,都能做到时间连续、场景自然过渡。 更惊喜的是,整个项目完全开源!训练代码、评估脚本、数据集全部公开,甚至连模型都能在 Hugging Face 直接下载。普通开发者也能基于它打造自己的无限视频生成工具。 SVI 的四大核心亮点 
 - OpenSVI:一切都是开源的:训练和评估脚本、数据集等等。
 - 无限长度 :视频时长没有固有限制;生成任意长的故事(参见 10 分钟的“猫和老鼠”演示)。
 - 多功能 :支持多种野外生成任务:多场景短片、单场景动画、骨架/音频条件生成、动画片等。
 - 高效 :仅调整 LoRA 适配器,需要很少的训练数据:任何人都可以轻松制作自己的 SVI。
 
 
 技术揭秘:为什么 SVI 能做到 "无限长"? 
 核心秘诀在于Error Recycling(误差循环)技术。传统视频生成时,每帧的微小误差会不断累积,导致画面逐渐 "跑偏"(比如人物慢慢变形、场景莫名切换)。 而 SVI 通过特殊的误差缓存机制,能动态修正这些累积错误,让每一段新生成的视频都和前面内容保持一致。就像给 AI 装上了 "记忆 + 纠错" 功能,无论生成多久都不会 "失忆"。
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
 我们今天的话就先来玩Shot和Film。 二、相关安装SVI的模型挺多的: - SVI-Shot:适合单场景长视频
 - SVI-Film:支持多场景电影级生成
 - SVI-Talk:音频驱动的对话视频
 - SVI-Dance:骨骼控制的舞蹈动画
 
  
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
KJ这边提供了这些对应的模型下载: 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
我网盘也提供了,大家自行前往下载 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
 
三、测评体验工作流已发Runninghub,前往体验or下载: 目前官方其实就给出了 SVI-Shot 工作流程。Film的是第三方作者分享的,所以今天我们也只分享这2个,其他剩余的等后面完善了再分享。 3.1 SVI-Shot版 
 Shot版本适合单场景的,就是重复一个提示词无限跑,或者变化比较小的,比如人做一些简单姿势之类的,场景不变背景不变的。 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
这个流的流程说一下: - 首次正常的图生视频流程,8步出视频。
 - 第二次开始用上一个视频的尾帧当做参考图去重新生成视频
 - 然后每次跑的视频都接到之前的视频尾部
 
 
 就是这么简单,我们来看看模型加载 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
用的是WAN2.1 I2V的模型,结合上lightx2v加速lora以及这里用到的svi-shot lora。 第二次开始的话,提取尾帧,传入到WanVideo VACE Start To End Frame的start_image中,上传的那种图当做Control_images传入。
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
 最后就是拼接视频了 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
 我们来看2个案例: 下面这个是同一个提示词,当时生成了35秒,也就是采样了7次。 一艘线条流畅的白色机动游艇在碧绿的海面上疾驰,在晴朗的蓝天下,身后留下一道引人注目的白色泡沫尾迹。 
下面这个是不同的提示词,出的效果: 女孩对着镜头微笑 
相机拉远,女孩用手比出心形 
相机拉近,女孩轻轻亲吻镜头 
相机从左向右移动,女孩对着镜头微笑 
相机从右向左移动,女孩做出拥抱的姿势 
相机从左前方拍摄,女孩张着嘴含着自己的手指 
相机绕着女孩转动,女孩摆出性感姿势 
女孩对着镜头微笑 
相机拉远,女孩用手比出心形 
相机拉近,女孩轻轻亲吻镜头 
可以看到,视频的质量还是不错的,质量劣化的很少,特别是相同提示词那种,基本可以保持很高的视频质量。 3.2 SVI-FILM版 
 SVI-FILM版的话,支持更多的场景,也就是提示词可以不同,场景可以更多一些。 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
首先模型这里lora要选择对应的 film版本 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
然后需要注意的些节点,官方推荐是上一个视频的最后五帧当做参考图传入下一个视频里面,也就是下图中传入到WanVideo ImageToVideo Encode的start_image参数中。 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
剩下的也就是正常的采样出视频了,每次都合并前面出的视频,最中间就出来了长视频的视频了,效果别说还挺好的。 下面是跑的案例: 一只暹罗小猫紧紧地躺在一顶草帽里,头微微倾斜,好奇地凝视着一边。 
小猫决定探索房间,从帽子里跳到下面柔软的地毯上。 
小猫看到一个羽毛玩具,立即扑向它,在客厅里追着它。 
羽毛玩具卡在角落里,导致小猫爬上附近的家具才能到达它。 
小猫在玩羽毛玩具时,不小心划伤了沙发的扶手。 
主人注意到划痕,轻轻地将小猫从家具上移开,将其放回帽子中以确保安全。 
小猫仍然顽皮,决定调查一个被移到地板上的盒子。 
在盒子里,小猫发现了一只小玩具老鼠,它热情地扑向它。 
当小猫在房子里追逐玩具老鼠时,它的兴奋程度越来越高,造成了一些小混乱。 
过了一会儿,小猫累坏了,在客厅地板上睡着了,仍然抓着玩具老鼠猫咪视频47秒,这个前期还好,后期有点变了,特别黑是放回帽子这里(30秒这里),好像帽子变了,导致后面的都开始有些变化。 女孩对着镜头微笑 
相机拉远,女孩用手比出心形 
相机拉近,女孩轻轻做了个飞吻 
相机从左向右移动,女孩对着镜头微笑 
相机从右向左移动,女孩做出拥抱的姿势 
相机从左前方拍摄,女孩张着嘴含着自己的手指 
相机绕着女孩转动,女孩摆出性感姿势 
女孩一只手比了个剪刀手手势 
女孩子嘟嘴巴 
相机拉远,女孩挥手 
这个视频也是47秒,女孩前面还好,16-20秒的时候好像就有点变化了,特别是脸部,越往后就劣化的越严重。 这个不懂是不是RH没更新到最新的版本导致的,大家本地试试,工作流是没问题的。 注意事项 
 - 每个视频片段需用不同种子
 - 电影模式(Film)用 5 帧运动,镜头模式(Shot)用 1 帧
 - SVI-FILM适合多场景的变化大一些,而SVI-Shot 适用于没有太大运动的场景,例如一个人在说话做一些轻微的表情动作变化。
 
  四、在线使用云端镜像 
 大家如果没有本地 ComfyUI 环境,或者本地显卡配置低于 16G 的,可以使用嘟嘟部署的仙宫云镜像,可直接加载使用。后续分享的工作流都会更像到镜像中,一周更新一次,方便大学学习。 目前整合了2个镜像,一个是Flux绘图用的,另外一个是针对视频模型的,之所以分开是一些模型兼容问题,分开比较好处理。 镜像名称:嘟嘟AI绘画趣味学 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
[ComfyUI]AI 视频生成的 “枷锁” 破了!SVI 靠误差循环:时长无上限,画面不跑偏,开源工具直接用 ... 
 
 云平台镜像地址: https://www.xiangongyun.com/image/detail/d961a7dc-ade3-4bd5-a7c6-92ac49ff5e4b?r=37BCLY https://www.xiangongyun.com/image/detail/81716d29-4461-4b0b-ba4b-7b9b7dd569d3?r=37BCLY 新用户通过邀请码注册,总共可获得 8 元奖励,体验 4 个小时的 4090 作图时长。  
 |