【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度
  o039aR8HerHN 2023年11月02日 58 0

近日,阿里云人工智能平台 PAI与华东师范大学陈岑副教授团队合作在深度学习顶级会议 CIKM 2023 上发表 OLSS (Optimal Linear Subspace Search) 算法,这是一种针对扩散模型的采样加速算法。在这篇论文中,扩散模型加速算法的本质被建模成线性子空间的扩张过程,给出了目前方法的统一分析,并基于此设计了新的加速算法,大幅度提升了扩散模型的生成速度。

论文:

Zhongjie Duan, Chengyu Wang, Cen Chen, Jun Huang, Weining Qian. Optimal Linear Subspace Search: Learning to Construct Fast and High-Quality Schedulers for Diffusion Models. CIKM 2023

背景

近年来,在图像生成领域,对于扩散模型的成功我们有目共睹。与基于 GAN 的生成模型不同,扩散模型需要多次调用模型进行前向推理,经过多次迭代,才能得到清晰完整的图像。扩散模型在大幅度提升生成效果的同时,也因其迭代式的生成过程面临严重的计算效率问题。我们希望改进扩散模型的生成过程,减少迭代步数,提升生成速度。

加速算法的统一分析

形式化地,给定一个扩散模型【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代,在一次完整的生成过程中从高斯噪声 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_02开始,经过 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_03 步采样,依次得到$ 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_04为了保证生成效果,【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_03 在训练时通常被设置的非常大,例如 Stable Diffusion 中是 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_06。现有的一些研究工作提出了“调度机”(scheduler)的概念。一个调度机会在 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_07 中取出一个 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_08 步递减的子序列 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_09,只在这 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_08步中调用模型进行前向推理,构建完整生成过程的近似过程,重构出迭代公式。

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_11

具体地,在 DDIM 调度机中

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_12

其中【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_13 是模型的输出值。在一些基于常微分方程的调度机中,【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_14 被建模成步骤【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_15的函数,进而可以使用常微分方程的数值近似算法——前向欧拉方法求解

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_16

其中

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_17

PNDM 调度机则是基于线性多步方法构造了一个伪数值近似算法

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_18

其中

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_19

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_20

观察以上调度机中的迭代公式,我们不难发现

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_21

用数学归纳法易证

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_22

这其实揭示了调度机设计的本质——在由模型输出值和初始高斯噪声张成的向量空间中求解下一步的【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_02。不同的调度机仅在迭代公式的系数上存在不同,我们决定设计一个新的调度机,将迭代公式中的系数设计成可训练的,使其对应的近似计算过程更加精确。

算法架构

假定【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_08个步骤 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_25 已经被选出,在第 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_26 步,我们已经得到了 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_27 以及 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_28,考虑计算 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_29 的近似值 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_30,根据我们上文中的分析,【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_30 应当在由 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_32 张成的线性子空间中求解,即

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_33

为了确定最佳的参数 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_34,我们需要对其进行训练。考虑到训练参数较少,我们并不采用基于梯度的训练方法,而是直接使用最小二乘法求最优解。首先采集来自完整生成过程的变量【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_29,令损失函数 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_36,使用基于 QR 分解的最小二乘求解算法,在保证数值稳定性的前提下计算出最优参数,构成新的调度机算法。我们称这个新的调度机算法为 OLSS (Optimal Linear Subspace Search)。

我们在下图中提供了这个过程的几何解释,在完整生成过程中 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_37由 DDIM 调度机构造的近似过程中,若跳过 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_38【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_39【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_40而在由 OLSS 构造的近似过程中,若跳过 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_38,则在一个更高维线性子空间 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_42中计算【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_43,具有更低的误差

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_44

此外,为了进一步降低这个算法的误差,我们还对 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_25 进行了调整。具体地,设计了一个启发式的路径规划算法,分为以下三部分:

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_46

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_ci_47

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_48

其中算法 1 利用贪心策略搜索下一步的 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_49,算法 2 调用算法 1 搜索在误差上届 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_50 下是否存在这样的路径,算法 3 调用算法 2 搜索最低的误差上界。整个路径规划算法可以使 【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_迭代_08 步中的最大误差最小。

实验结果

我们在主流的 Stable Diffusion 1.4 和 Stable Diffusion 2.1 上进行了实验,测试了包括 OLSS 和 OLSS-P(无路径规划版本)在内的 8 个调度机算法,使用 5 步、10 步、20 步的算法与 100 步、1000 步的算法比较,FID 结果(越小越好)如下表所示:

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_52

我们可以明显看出,在同等步数下,OLSS 比其他调度机算法能够实现更高的图像质量,这证明了 OLSS 方法的巨大优越性。此外,从以下例子中我们也可以明显看出 OLSS 在极少步数下的效果:

【CIKM 2023】扩散模型加速采样算法OLSS,大幅提升模型推理速度_Processing_53

目前 OLSS 已经在 EasyNLP(<https://github.com/alibaba/EasyNLP/tree/master/diffusion/olss_scheduler>)开源。欢迎广大用户试用!

参考文献

  • Bingyan Liu, Weifeng Lin, Zhongjie Duan, Chengyu Wang, Ziheng Wu, Zipeng Zhang, Kui Jia, Lianwen Jin, Cen Chen, Jun Huang. Rapid Diffusion: Building Domain-Specific Text-to-Image Synthesizers with Fast Inference Speed. In the 61st Annual Meeting of the Association for Computational Linguistics (Industry Track).
  • Chengyu Wang, Minghui Qiu, Taolin Zhang, Tingting Liu, Lei Li, Jianing Wang, Ming Wang, Jun Huang, Wei Lin. EasyNLP: A Comprehensive and Easy-to-use Toolkit for Natural Language Processing. In the 2022 Conference on Empirical Methods in Natural Language Processing (Demo Track).
  • Jiaming Song, Chenlin Meng, and Stefano Ermon. 2020. Denoising Diffusion Implicit Models. In International Conference on Learning Representations.
  • Tero Karras, Miika Aittala, Timo Aila, and Samuli Laine. 2022. Elucidating the design space of diffusion-based generative models. Advances in Neural Information Processing Systems 35 (2022), 26565–26577.
  • Luping Liu, Yi Ren, Zhijie Lin, and Zhou Zhao. 2021. Pseudo Numerical Methods for Diffusion Models on Manifolds. In International Conference on Learning Representations.
  • Qinsheng Zhang and Yongxin Chen. 2022. Fast Sampling of Diffusion Models with Exponential Integrator. In The Eleventh International Conference on Learning Representations.
  • Cheng Lu, Yuhao Zhou, Fan Bao, Jianfei Chen, Chongxuan Li, and Jun Zhu. 2022. Dpm-solver: A fast ode solver for diffusion probabilistic model sampling in around 10 steps. Advances in Neural Information Processing Systems 35 (2022), 5775–5787.
  • Cheng Lu, Yuhao Zhou, Fan Bao, Jianfei Chen, Chongxuan Li, and Jun Zhu. 2022. Dpm-solver++: Fast solver for guided sampling of diffusion probabilistic models. arXiv preprint arXiv:2211.01095 (2022).

论文信息

论文标题:Optimal Linear Subspace Search: Learning to Construct Fast and High-Quality Schedulers for Diffusion Models
论文作者:段忠杰、汪诚愚、陈岑、黄俊、钱卫宁
论文pdf链接:<https://arxiv.org/abs/2305.14677>

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月08日 0

暂无评论

推荐阅读
o039aR8HerHN