两分钟1200帧的长视频生成器StreamingT2V来了,代码将开源


广阔的战场,风暴兵在奔跑……

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

prompt:Wide shot of battlefield, stormtroopers running...

这段时长达1200帧的2分钟视频是由文本生成视频(text-to-video)模型生成的。尽管AI的痕迹仍然显而易见,但其中的人物和场景展现出相当不错的一致性。

这是如何办到的呢?要知道,虽然近些年文生视频技术的生成质量和文本对齐质量都已经相当出色,但大多数现有方法都聚焦于生成短视频(通常是 16 或 24 帧长度)。然而,适用于短视频的现有方法通常无法用于长视频(≥ 64 帧)。

即使是生成短序列,通常也需要成本高昂的训练,比如训练步数超过 260K,批大小超过 4500。如果不在更长的视频上进行训练,通过短视频生成器来制作长视频,得到的长视频通常质量不佳。而现有的自回归方法(通过使用短视频后几帧生成新的短视频,进而合成长视频)也存在场景切换不一致等一些问题。

为了弥补现有方法的不足,Picsart AI Research等多个机构联合提出了一种新的文生视频方法:StreamingT2V。这种方法采用自回归技术,并结合长短期记忆模块,使其能够生成时间连贯性强的长视频。

  • 论文标题:StreamingT2V: Consistent, Dynamic, and Extendable Long Video Generation from Text
  • 论文地址:https://arxiv.org/abs/2403.14773
  • 项目地址:https://streamingt2v.github.io/

如下是一段 600 帧 1 分钟的视频生成结果,可以看到蜜蜂和花朵都有非常出色的一致性:

因此,团队提出了条件注意力模块(CAM)。CAM利用其注意力机制,能够有效地整合之前帧的信息来生成新的帧,并且能够自如地处理新帧中的运动情况,而不受之前帧结构或形状的限制。

而为了解决生成的视频中人与物外观变化的问题,该团队又提出了外观保留模块(APM):其可从一张初始图像(锚帧)提取对象或全局场景的外观信息,并使用该信息调节所有视频块的视频生成过程。

为了进一步提升长视频生成的质量和分辨率,该团队针对自回归生成任务对一个视频增强模型进行了改进。为此,该团队选择了一个高分辨率文生视频模型并使用了 SDEdit 方法来提升连续 24 帧(其中有 8 帧重叠帧)视频块的质量。

为了使视频块增强过渡变得平滑,他们还设计了一种随机混合方法,能以无缝方式混合重叠的增强过的视频块。

方法

首先,生成 5 秒时长的 256 × 256 分辨率的视频(16fps),然后将其增强至更高的分辨率(720 × 720)。图 2 展示了其完整的工作流程。

长视频生成部分由初始化阶段(Initialization Stage)和流式文生视频阶段(Streaming T2V Stage)构成。

其中,初始化阶段是使用一个预训练的文生视频模型(比如可以使用 Modelscope)来生成第一个 16 帧的视频块;而流式文生视频阶段则是以自回归方式生成后续帧的新内容。

对于自回归过程(见图 3),该团队新提出的 CAM 可以利用之前视频块最后 8 帧的短期信息,实现块之间的无缝切换。另外,他们还会使用新提出的 APM 模块来提取一张固定锚帧的长期信息,使自回归过程能稳健地应对事物和场景细节在生成过程中的变化。

在生成得到了长视频(80、240、600、1200 或更多帧)之后,他们再通过流式优化阶段(Streaming Refinement Stage)来提升视频质量。这个过程会以自回归方式使用一个高分辨率文生短视频模型(如可使用 MS-Vid2Vid-XL),再搭配上新提出的用于无缝视频块处理的随机混合方法。而且后一步无需额外的训练,这使得该方法无需较高的计算成本。

条件注意力模块

首先,将所使用的预训练文生(短)视频模型记为 Video-LDM。注意力模块(CAM)的构成是一个特征提取器、一个向 Video-LDM UNet 注入的特征注入器。

其中特征提取器使用了逐帧的图像编码器,之后是与 Video-LDM UNet 直到中间层一直使用的一样的编码器层(并通过 UNet 的权重初始化)。

对于特征注入,这里的设计则是让 UNet 中的每个长程跳跃连接通过交叉注意力关注 CAM 生成的相应特征。

外观保留模块

APM 模块可通过使用固定锚帧中的信息来将长期记忆整合进视频生成过程中。这有助于维持视频块生成过程中的场景和对象特征。

为了让 APM 能平衡处理锚帧和文本指令给出的引导信息,该团队做出了两点改进:(1)将锚帧的 CLIP 图像 token 与文本指令的 CLIP 文本 token 混合起来;(2)为每个交叉注意力层引入了一个权重来使用交叉注意力。

自回归视频增强

为了自回归地增强 24 帧的生成视频块,这里使用的是高分辨率(1280x720)的文生(短)视频模型(Refiner Video-LDM,见图 3)。这个过程的做法是首先向输入视频块加入大量噪声,然后再使用这个文生视频扩散模型来进行去噪处理。

不过,这种方法不足以解决视频块之间的过渡不匹配的问题。

为此,该团队的解决方案是随机混合方法。具体详情请参阅原论文。

实验

在实验中,该团队使用的评估指标包括:用于评估时间一致性的 SCuts 分数、用于评估运动量和扭变误差的运动感知扭变误差(MAWE)、用于评估文本对齐质量的 CLIP 文本图像相似度分数(CLIP)、美学分数(AE)。

消融研究

为了评估各种新组件的有效性,该团队从验证集中随机采样 75 个 prompt 执行了消融研究。

用于条件处理的 CAM:CAM 能帮助模型生成更一致的视频,其 SCuts 分数比相比较的其它基线模型低 88%。

长期记忆:图 6 表明长期记忆能在自回归生成过程中极大帮助维持对象和场景的特征稳定。

在一个定量评估指标(人再识别分数)上,APM 实现了 20% 的提升。

用于视频增强的随机混合:与其它两个基准相比,随机混合能带来显著的质量提升,从图 4 中也能看到:StreamingT2V 可以得到更平滑的过渡。

StreamingT2V 对比基线模型

该团队通过定量和定性评估比较了集成上述改进的 StreamingT2V 与多种模型,包括使用自回归方法的图像到视频方法 I2VGen-XL、SVD、DynamiCrafter-XL、SEINE,视频到视频方法 SparseControl,文本到长视频方法 FreeNoise。

定量评估:从表 8 可以看出,在测试集上的定量评估表明,StreamingT2V 在无缝视频块过渡和运动一致性方面的表现最佳。新方法的 MAWE 分数也显著优于其它所有方法 —— 甚至比第二好的 SEINE 低 50% 以上。SCuts 分数上也有类似表现。

此外,在生成视频的单帧质量上,StreamingT2V 仅略逊于 SparseCtrl。这表明这个新方法能够生成高质量的长视频,并且比其它对比方法具有更好的时间一致性和运动动态。

定性评估:下图展示了 StreamingT2V 与其它方法的效果比较,可以看出新方法能在保证视频动态效果的同时维持更好的一致性。

 更多研究细节,可参考原论文。


# ai  # Token  # 对象  # github  # https  # prompt  # 提出了  # 过程中  # 则是  # 能在  # 流式  # 长程  # 可以看出  # 时长  # 见图  # 的是 


相关栏目: 【 Google疑问12 】 【 Facebook疑问10 】 【 网络优化91478 】 【 技术知识72672 】 【 云计算0 】 【 GEO优化84317 】 【 优选文章0 】 【 营销推广36048 】 【 网络运营41350 】 【 案例网站102563 】 【 AI智能45237


相关推荐: Kaiber AI视频制作教程:轻松打造吸睛AI视频  Docker MCP Toolkit:简化AI代理与外部工具的连接  DeepSeek写合同怎么用_DeepSeek写合同使用方法详细指南【教程】  AI落地页优化:3个技巧,转化率飙升!  Gemini 辅助进行多平台社交媒体内容调度  AI图片生成教程:轻松打造你的专属文化艺术照  斑马AI能否关联学校教材_斑马AI教材同步与版本匹配【技巧】  AI驱动的合同审查:Adobe Acrobat AI助手提升效率与准确性  专家:26年1月中国车市将实现“开门红” 高端增长强劲  AI动画制作终极指南:让你的图片和人物栩栩如生  QuickBooks Desktop 到 Online 迁移指南:轻松转移您的公司数据  构建AI工作流:利用BuildShip低代码平台赋能Gemini和Google Cloud  豆包AI怎么用提示词生成短视频脚本_豆包AI脚本提示词编写【教程】  京东旅行AI能否抢返程票_京东AI返程票预约与自动抢购【技巧】  Z170芯片组内存兼容性问题终极指南  豆包 AI 辅助进行精简版个人周报撰写技巧  扣子AI怎样设置多轮对话逻辑_扣子AI逻辑树搭建与分支设计【教程】  在线奇幻名称生成器:打造独一无二的角色名  千问怎样生成年度业绩分析_千问业绩分析模型与数据解读【攻略】  AI Buildr: 构建 AI 应用的终极指南  打破传统,拥抱幸福:公主如何找到真我?  AI视频制作教程:从图像到病毒式Vlog全攻略  深入解析音视频转录:全面指南与实践技巧  如何用AI帮你创作节日贺卡文案?让祝福与众不同  AI视频播客制作终极指南:告别繁琐编辑,轻松发布!  Claude怎样写指令型提示词_Claude指令提示词写法【方法】  百度AI搜索怎么用语音提问_百度AI搜索语音输入与识别优化【指南】  如何通过 DeepSeek 优化分布式存储系统架构  Mac百度输入法ai怎么关 Mac版百度ai助手禁用教程  YouTube SEO优化:AI驱动的标题生成工具详解  AI语音生成指南:免费工具、变现实战与避坑策略  TRX40主板终极对决:3990X散热性能深度评测  Tenorshare AI Bypass:终极AI内容人性化工具深度评测  2025年最佳免费AI艺术生成器:POD终极指南  Canva AI 辅助 KDP 封面设计:轻松创建畅销书笔记本  如何用AI设计一个Logo?5个步骤教你打造专属品牌标志  AI标语生成器:轻松打造品牌口号,提升品牌价值  N8N自动化营销:无需编程实现AI智能获客  DesignGen: 5个AI模型革新服装设计,快速实现创意  Midjourney怎样用参数调色彩饱和度_Midjourney饱和度调整【方法】  Gemini怎样写描述型提示词_Gemini描述提示词编写【攻略】  AI海报设计终极指南:免费智能工具,手机轻松搞定!  摆脱情歌魔咒:告别心碎,拥抱新生的情感之旅  消除噪音,提升音质:Audo.ai终极指南  律师视角下的生成式AI:信息爆炸时代的法律实践与未来展望  五大AI视频编辑工具:提升视频创作效率和质量  AI驱动KDP封面设计:NURIE CREATOR教程  利用 DeepSeek 辅助进行编译器原理课程学习  如何用AI帮你快速理解API文档?开发者必备高效技巧  AI赋能软件测试:自动化、智能化与未来趋势 

 2024-03-27

了解您产品搜索量及市场趋势,制定营销计划

同行竞争及网站分析保障您的广告效果

点击免费数据支持

提交您的需求,1小时内享受我们的专业解答。

南京市珐之弘网络技术有限公司


南京市珐之弘网络技术有限公司

南京市珐之弘网络技术有限公司专注海外推广十年,是谷歌推广.Facebook广告全球合作伙伴,我们精英化的技术团队为企业提供谷歌海外推广+外贸网站建设+网站维护运营+Google SEO优化+社交营销为您提供一站式海外营销服务。

 87067657

 13565296790

 87067657@qq.com

Notice

We and selected third parties use cookies or similar technologies for technical purposes and, with your consent, for other purposes as specified in the cookie policy.
You can consent to the use of such technologies by closing this notice, by interacting with any link or button outside of this notice or by continuing to browse otherwise.