2024CTIS-文章详情页顶部

免费AI“神器”系列第14弹:Sora竞品可生成2分钟视频;谷歌Vlogger能让图像说话|钛媒体AGI

AGI的潜力究竟有多大?

近期,生成式人工智能(AIGC)领域又涌现出多款创意十足的新应用。

今天,钛媒体AGI梳理了免费 AI “神器”系列第十四弹,共五款,其中不少产品再一次拓宽了我们对AI的想象力。

  • 120秒超长AI视频模型——StreamingT2
  • 即插即用的视频转视频框架——AnyV2V
  • 谷歌图生视频模型——Vlogger
  • 文本转视频模型——Hotshot ACT-1
  • AI视频生成模型——Motion-I2V

1、120秒超长AI视频模型——StreamingT2

产品信息:StreamingT2是由Picsart AI Research、UT Austin和Shi Labs的研究团队共同开发的一款文生视频模型,该模型突破了以往AI视频长度限制,可生成长达2分钟的长视频。StreamingT2的发布将视频生成技术推向了新高度,也被称为Sora的强劲对手。

产品功能: StreamingT2V可以根据用户的文字提示生成长达120秒的长视频,同时,StreamingT2V将条件注意力模块(CAM)和外观保持模块(APM)核心构架结合,使得生成的视频与文本描述紧密相关且动态连续,展现高动态效果和时间一致性。

此外,StreamingT2V的实现方法分为初始化、Streaming T2V生成和Streaming Refinement三个阶段,保证了视频生成的高质量和高分辨率,并且StreamingT2V的高效能并不局限于特定的模型,这意味着随着技术的进步,视频质量还有进一步提升的空间。

项目及演示:https://streamingt2v.github.io

论文地址:https://arxiv.org/abs/2403.14773

2、即插即用的视频转视频框架——AnyV2V

产品信息:AnyV2V是一款无需训练,即插即用的AI视频编辑框架,该框架由滑铁卢大学、Vector Institute 和 Harmony.AI 团队共同开发,旨在帮助用户简化视频创作流程,提高视频制作效率。

产品功能:AnyV2V不仅支持对源视频进行深度编辑与修改,还能按照输入文本提示,主题或风格等,生成对应新视频。

具体来看,AnyV2V将视频编辑简化为了两个主要步骤:首先,AnyV2V 可以插入任何现有的图像编辑工具,从而支持多个视频编辑任务。其次,AnyV2V 可以插入任何现有的图像视频模型,执行 DDIM 反转和中间特征注入,从而保持与源视频的外观和运动一致性。

此外, AnyV2V 还可以支持视频编辑任务,包括基于参考的风格转换、主题驱动编辑和身份处理。

项目地址:https://tiger-ai-lab.github.io/AnyV2V/

论文地址:https://huggingface.co/papers/2403.14468

3、谷歌图生视频模型——Vlogger

产品信息:Vlogger是谷歌推出的一款图生视频技术框架,该框架是基于 MENTOR 数据库训练而来,数据库中包含超过 80 万名人物肖像,以及累计超过 2200 小时的影片,使得VLOGGER可以生成不同种族、不同年龄、不同穿着、不同姿势的人物视频。

产品功能:用户只需上传一张人物图片+音频文件,就能实现让人物开口说话,生成一段人像与音频完美贴合且流畅的视频,并能做到视频中人物面部表情及肢体动作都相当自然且生动。

团队成员表示,和业内此前的同类方法相比,VLOGGER最大的优势体现在不需要对每个人进行训练、也不依赖于面部检测和裁剪,并且生成的视频很完整(既包括面部和唇部,也包括肢体动作)等等。此外,Vlogger 还具有视频编辑和翻译等应用,能够让人物闭嘴、闭眼,甚至进行视频翻译。

项目地址:https://enriccorona.github.io/vlogger

4、文本转视频模型——Hotshot ACT-1

产品信息:Hotshot - ACT 1是一款由Hotshot Research开发的文本生成视频模型,该模型基于大规模高分辨率文本视频语料库训练,注重空间对齐、时间对齐和审美质量,旨在为视频创作者提供高质量的视频创作体验。

产品功能:用户只需输入文本描述,即可生成动画风格的视频。同时可以根据自身需求选择不同的宽高比和分辨率输出,定制化自己的视频内容。

体验地址:https://hotshot.co/act-one

5、AI视频生成模型——Motion-I2V

产品信息: Motion-I2V是一款AI视频生成模型,能够根据一张静态图片生成连贯且可控制的视频。

产品功能:能实现图像到视频的自动转换,能够将静态图像自动转换成连贯的动态视频,通过模拟图像中对象的自然运动,使静态图像动起来。同时支持用户精确控制视频中的运动轨迹和运动区域,使得生成的视频不仅流畅连贯,而且用户可以通过简单的操作控制视频内容。

此外,基于其先进的运动增强和时间注意力技术,无需额外的训练样本,Motion-I2V就能实现视频风格转换,比如从现实风格转换成漫画风格。

项目主页:https://xiaoyushi97.github.io/Motion-I2V/

论文地址:https://huggingface.co/papers/2401.15977

(本文首发于钛媒体APP,作者|章橙,编辑|林志佳)

转载请注明出处、作者和本文链接
声明:文章内容仅供参考、交流、学习、不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

扫描下载App