让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入
推理阶段只需4步
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
AI图像生成,已经进入了秒速级别,只要4步推理就能完成绘制,最快更是能在1秒之内完成。
现在,清华大学联合HuggingFace的研究人员,推出了全新的绘图模型加速模块。
作者给出的体验版当中,点击生成按钮后,模型只用了几秒钟就绘制出了4张清晰的图像。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/408f59db321c63a55a4f2a85cdfc5114.gif)
这个加速模块叫做LCM-LoRA,发布后不久就斩获了2k+次GitHub星标。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/1d3bb9b4d50f73eda36e8a4a8515a327.jpeg)
它不仅加速能力强、泛化性能好,适配的模型也很广泛,SD系和LoRA模型都能用它来加速。
团队基于LCM-LoRA自行优化的文生图模型已在HuggingFace上开放体验,图生图模型也推出了CoLab等版本。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/dbc0a715550c0a6346b1aa96420aab43.png)
AI绘图工具迅速接入
LCM-LoRA开源后不久,就有AI绘图工具厂商Scenario宣布将基于它推出“实时绘图”功能。
Scenario的CEO还在上亲自展示了即将上线的实时绘图功能DEMO。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/72aeb0a189301551974edc2282f64b77.png)
只见一边在绘制草图,另一边AI就把相应的画作绘制好了,时间上几乎同步。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/9f25c8a1a76b4488e035d8e058717978.gif)
调整提示词和有关参数,模型响应得也是干脆利落。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/1224fce673863430da605aed9010a718.gif)
这些DEMO发布后,引发了众人的一致赞叹。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/9e73a9a451be79d23682bb90d8740f06.png)
那么,LCM-LoRA这个加速模块到底有多强,又是怎样实现的呢?
“跳步”降低内存开销
LCM-LoRA将LoRA引入潜在一致性模型(LCM)的蒸馏过程,显著减少了训练内存开销,从而提高性能。
而LCM是从潜扩散模型(LDM)中蒸馏出来的,“蒸馏”的过程也可以看做是对扩散模型的微调。
它的核心思想是在图像的隐变量空间中学习一致性映射函数,该函数可以直接将扩散过程中的任意点映射到终点,即微分方程的解。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/eae76153a0fb5f4f94d92ee1c7e2e591.png)
通过这种一致性映射,LCM可以跳过迭代采样过程,直接进行少步甚至一步采样,从而极大地加速了图像的生成。
而隐变量空间操作相比基于像素空间的方法,计算复杂度和内存需求也更低。
结合LoRA后,只需要训练低秩分解矩阵,可训练参数量和内存开销进一步减少,应用范围也从单纯的文生图扩展到了图生图和视频生成。
最直观体现的就是我们看到的秒速出图,而训练时间上,LCM-LoRA优化后的模型在A100上训练只需32个GPU时。
训练时间缩短的背后,也于训练参数量大幅减少密切相关:
- SD-V1.5全量参数为9.8亿,使用LoRA后可训练参数减少到6750万,约减少了93.1%。
- SSD-1B参数从13亿减少到1.05亿,约减少了91.9%。
- SDXL参数从35亿减少到1.97亿,约减少了94.3%。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/04b0483f5e72dca7bfdfdba15c486d35.png)
不仅是训练消耗的降低,推理过程中的步数也大幅减少,一般只需要4步推理就能绘制出质量不错的图像。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/9ea72c5fa9beb6d2bdf792a89175af52.png)
有时甚至只要一步就能完成,用时还不到1秒,FID分数(越低越好)在50以下。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/ffb87a9620a78c332e5355fe8e44d9d9.png)
不仅加速性能优异,LCM-LoRA的适配性也十分广泛。
LCM-LoRA训练得到的LoRA参数又称为加速向量,可以数据集上微调得到的LoRA参数直接线性组合,不需要额外训练。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/abe634faac63deefd4bbdf3f9696093c.png)
这种组合方式使得LCM-LoRA成为一个可直接插接到各种微调模型中的通用图像生成加速模块。
作者简介
LCM和LCM-LoRA论文的两位主要作者是来自清华大学交叉信息研究院的研究生骆思勉(Simian Luo)和谭亦钦(Yiqin Tan)。
清华叉院的黄隆波副教授、李建副教授和赵行助理教授也参与了这两项研究。
在LCM-LoRA的工作中,来自HuggingFace的研究人员亦有贡献。
![让Stable Diffusion秒出图!清华硕士加速神器爆火,已有公司接入](/wp-content/uploads/replace/d31a1da059742b65fb4f434c39559d60.png)
论文地址:
[1]https://arxiv.org/abs/2310.04378
[2]https://arxiv.org/abs/2311.05556
开源项目页:
https://github.com/luosiallen/latent-consistency-model
文生图在线体验(HuggingFace):
https://huggingface.co/spaces/SimianLuo/Latent_Consistency_Model
图生图Colab笔记:
https://colab.research.google.com/github/camenduru/latent-consistency-model-colab/blob/main/latent_consistency_model_webui_colab.ipynb
- 几何朗兰兹猜想被解决!历时30年、证明论文达800余页,中国学者陈麟系主要作者2024-07-23
- 开源大模型杀疯了!Mistral新模型三分之一参数卷爆Llama 3.1,“新趋势已显而易见”2024-07-25
- GPT-4o mini登顶大模型竞技场,奥特曼:两个月内微调免费2024-07-24
- 英特尔CPU疯狂崩溃,测评大佬揭露工艺缺陷,官方回应:修复补丁下月上线2024-07-23