論文の概要: Inverse Bridge Matching Distillation
- arxiv url: http://arxiv.org/abs/2502.01362v1
- Date: Mon, 03 Feb 2025 13:56:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:02:20.491826
- Title: Inverse Bridge Matching Distillation
- Title(参考訳): 逆ブリッジマッチング蒸留
- Authors: Nikita Gushchin, David Li, Daniil Selikhanovych, Evgeny Burnaev, Dmitry Baranchuk, Alexander Korotin,
- Abstract要約: 拡散ブリッジモデル(DBMs)は、画像から画像への変換に応用するための拡散モデルの有望な拡張である。
本稿では, 逆橋整合式に基づく新しい蒸留技術を提案し, 実際に解決するための抽出可能な目的を導出する。
我々は,超解像,JPEG復元,スケッチ・トゥ・イメージ,その他のタスクを含む,広範囲のセットアップにおいて,条件付きおよび非条件付きブリッジマッチングのアプローチを評価する。
- 参考スコア(独自算出の注目度): 69.479483488685
- License:
- Abstract: Learning diffusion bridge models is easy; making them fast and practical is an art. Diffusion bridge models (DBMs) are a promising extension of diffusion models for applications in image-to-image translation. However, like many modern diffusion and flow models, DBMs suffer from the problem of slow inference. To address it, we propose a novel distillation technique based on the inverse bridge matching formulation and derive the tractable objective to solve it in practice. Unlike previously developed DBM distillation techniques, the proposed method can distill both conditional and unconditional types of DBMs, distill models in a one-step generator, and use only the corrupted images for training. We evaluate our approach for both conditional and unconditional types of bridge matching on a wide set of setups, including super-resolution, JPEG restoration, sketch-to-image, and other tasks, and show that our distillation technique allows us to accelerate the inference of DBMs from 4x to 100x and even provide better generation quality than used teacher model depending on particular setup.
- Abstract(参考訳): 拡散ブリッジモデルを学習するのは簡単です。
拡散ブリッジモデル(DBMs)は、画像から画像への変換に応用するための拡散モデルの有望な拡張である。
しかし、多くの現代の拡散モデルや流れモデルと同様に、DBMは遅い推論の問題に悩まされる。
そこで本研究では, 逆橋整合式に基づく新しい蒸留技術を提案し, 実際に解決するための抽出可能な目的を導出する。
従来開発されたDBM蒸留法とは異なり, 提案手法は条件付きおよび非条件型のDBMを蒸留し, 1ステップで蒸留し, 劣化した画像のみを訓練に用いることができる。
我々は,超解像,JPEG復元,スケッチ・ツー・イメージ,その他のタスクを含む多種多様なセットアップにおいて,条件付きおよび非条件型のブリッジマッチングのアプローチを評価するとともに,蒸留技術によりDBMの4倍から100倍の推算を加速でき,また,使用済み教師モデルよりも優れた生成品質が得られることを示す。
関連論文リスト
- Relational Diffusion Distillation for Efficient Image Generation [27.127061578093674]
拡散モデルの高い遅延は、コンピューティングリソースの少ないエッジデバイスにおいて、その広範な応用を妨げる。
本研究では,拡散モデルの蒸留に適した新しい蒸留法である拡散蒸留(RDD)を提案する。
提案したRDDは, 最先端の蒸留蒸留法と比較すると1.47FID減少し, 256倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-10-10T07:40:51Z) - One Step Diffusion-based Super-Resolution with Time-Aware Distillation [60.262651082672235]
拡散に基づく画像超解像(SR)法は,低解像度画像から細部まで細部まで,高解像度画像の再構成に有望であることを示す。
近年,拡散型SRモデルの知識蒸留によるサンプリング効率の向上が試みられている。
我々は,効率的な画像超解像を実現するため,TAD-SRというタイムアウェア拡散蒸留法を提案する。
論文 参考訳(メタデータ) (2024-08-14T11:47:22Z) - EM Distillation for One-step Diffusion Models [65.57766773137068]
最小品質の損失を最小限に抑えた1ステップ生成モデルに拡散モデルを蒸留する最大可能性に基づく手法を提案する。
本研究では, 蒸留プロセスの安定化を図るため, 再パラメータ化サンプリング手法とノイズキャンセリング手法を開発した。
論文 参考訳(メタデータ) (2024-05-27T05:55:22Z) - Distilling Diffusion Models into Conditional GANs [90.76040478677609]
複雑な多段階拡散モデルを1段階条件付きGAN学生モデルに蒸留する。
E-LatentLPIPSは,拡散モデルの潜在空間で直接動作する知覚的損失である。
我々は, 最先端の1ステップ拡散蒸留モデルよりも優れた1ステップ発生器を実証した。
論文 参考訳(メタデータ) (2024-05-09T17:59:40Z) - Fast High-Resolution Image Synthesis with Latent Adversarial Diffusion Distillation [24.236841051249243]
蒸留法は、モデルをマルチショットからシングルステップ推論にシフトすることを目的としている。
ADDの限界を克服する新しい蒸留法であるLADD(Latent Adversarial Diffusion Distillation)を導入する。
ピクセルベースのADDとは対照的に、LADDは事前訓練された潜伏拡散モデルから生成的特徴を利用する。
論文 参考訳(メタデータ) (2024-03-18T17:51:43Z) - Aligning Logits Generatively for Principled Black-Box Knowledge Distillation [49.43567344782207]
Black-Box Knowledge Distillation (B2KD)は、クラウドからエッジへのモデル圧縮において、サーバ上にホストされる見えないデータとモデルによって定式化された問題である。
民営化と蒸留による2段階のワークフローを形式化する。
そこで本研究では,ブラックボックスの煩雑なモデルを軽量に蒸留するKD (MEKD) を新たに提案する。
論文 参考訳(メタデータ) (2022-05-21T02:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。