腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源
腾讯混元联合清华和港科大推出
腾讯投稿扔向凹非寺
量子位 | 公众号 QbitAI
单击画面中的火箭,输入“发射”prompt,瞬间起飞!
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/70fc9c079c4afd2ab4ac0e21379f2e3a.gif)
就连想要回收火箭,也只需要输入“Launch down”,再轻轻一点击:
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/e9b86c13de61cdc14facfbd8e042e174.gif)
马斯克看了都要自我怀疑一下,这火箭发射这么简单,自家星舰成功进入太空怎么那么难(开个小玩笑)??
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/e32326e2bb208bef1fac8313a0661767.jpeg)
以上效果来自一个新的图生视频模型Follow-Your-Click,由腾讯混元、清华大学和香港科技大学联合推出。
食用方法非常友好:
任意一张照片输入模型,只需要点击对应区域,加上少量简单的提示词,就可以让图片中原本静态的区域动起来,一键转换成视频。
就连《一人之下》的诸葛青和《唐伯虎点秋香》里的星爷也……
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/0c1cacfb7defb4d18209010bb1b9df88.gif)
相关研究论文已经挂上了arXiv,GitHub上也放出代码,首日就小有战绩,揽星280+。
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/c372ca978f4ab5e53ae0b50a56a5dbba.png)
想动哪里点哪里,so easy
注意看这个楼梯上的动画小鼠形象,只需单击小鼠腹部,再输入“跳舞”,它就能瞬间扭动起来。
同时,画面的其他部分保持原有的静止状态。
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/16eb7285d35418a341c9e22b1fc1dc9b.gif)
不只是人物、卡通形象可以控制,图片的其余部分,通过点击和输入简短提示词,也能动起来。
,时长00:08
进一步测试,是可以实际感知到Follow-Your-Click对画面动态部分的精准控制的。
同样是鸟图,点击小鸟,输入“动动脑袋”:
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/5edf8925bac33affa8eb5706e79f9bac.gif)
输入“扇扇翅膀”:
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/d624350c20fea200c2bbf193b56db1fd.gif)
输入“跳个舞吧”:
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/bcd18e451304626ab1ae210b30bb8fe1.gif)
输入“不如摇摆”:
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/9828634abee105d41647733854050d0f.gif)
总结,就是想要哪里动,就点哪里。
研究团队还将Follow-Your-Click和其他视频生成模型进行了同题对比,以下是实验效果:
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/b3a5e929ec9b0438c76f4545a7ef9fe1.gif)
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/a28111d240a022313951591ba6bf6dd7.gif)
一键点,万物动
此前图生视频模型的生成方法,一般都需要用提示词描述运动区域,并提供运动指令的详细描述。
从生成效果来看,过往技术在指定图像移动部分缺乏控制,往往是让整个场景动起来,而不是具体到图像上的某个区域。
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/a73a8018ac9bb9bbef8f65cf18c15e08.png)
为了解决这些问题,腾讯混元大模型团队、清华和港科大联合项目提出了更实用和可控的图像到视频生成模型Follow-Your-Click。
实现方式上,Follow-Your-Click首先整合了图像语义分割工具Segment-Anything,将用户点击转换为二进制区域Mask,将其作为网络条件之一。
其次,为了更好地正确学习时间相关性,团队还引入了一种有效的首帧掩模策略。
这种方式对模型生成的视频质量有较大的性能提升,不论是在畸变还是首帧的重构效果上都有很大的帮助。
此外,为了实现简短提示词的文字驱动能力,研究团队构建了一个名为WebVid-Motion的数据集——利用大模型来过滤和注视视频标题,并强调人类情感、动作和常见物体的运动,通过数据集提升模型对动词的响应和识别能力。
联合研究团队还设计了一个运动增强模块,主要用途一方面是更好地适应数据集,一方面用来增强模型对运动相关词语的响,同时理解简短提示指令。
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/a602ebd01edacb328dcd2e96fc1c66bb.png)
在视频中,不同类型的物体可能表现出不同的运动速度。
以往的工作中,每秒帧数(FPS)主要作为全局的动作幅度控制参数,间接调整多个物体的运动速度。然而,它无法有效控制移动物体的速度。
举个
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/23fede06e57dc4889389bcb30e4d1a5c.png)
,一个展示雕塑的视频可能具有很高的FPS,但是没有物体的运动速度。
为了实现对运动速度的准确学习,研究团队提出了一种基于光流的运动幅度控制,使用光流模长作为新的视频运动幅度控制参数。
![腾讯混元最新图生视频模型!想动哪里点哪里,诸葛青睁眼原来长这样 | 开源](/wp-content/uploads/replace/5b94c83dcc1d333c19a893f4f3f82527.png)
以上这些新提出的方法,加上各模块的组合,Follow-Your-Click大大提升了可控图生视频的效率和可控性,最终实现了用简单文本指令来实现图像局部动画。
One More Thing
小道消息!
Follow-Your-Click联合项目组中的腾讯混元大模型团队,正努力研究和探索多模态技术。
此前,该团队已经作为技术合作伙伴,支持了《人民日报》的原创视频《江山如此多娇》。
该说不说,2024年,一定是多模态卷到爆炸的一年……
项目主页:https://follow-your-click.github.io/
论文链接:https://arxiv.org/pdf/2403.08268.pdf
GitHub:https://github.com/mayuelala/FollowYourClick
- 让AI视频进入「全民GC」时代,这家中国公司刚刚真的做到了2024-07-24
- 百川智能回应200亿元估值:为B轮投前估值,A轮总融资额达50亿元2024-07-25
- 刚刚,中国IMO奥数憾失第一,五连冠统治被美国队终结2024-07-21
- 给iPhone背面贴个AI录音机,生意老好了2024-07-21