論文の概要: Continuous Semi-Implicit Models
- arxiv url: http://arxiv.org/abs/2506.06778v1
- Date: Sat, 07 Jun 2025 12:36:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.475803
- Title: Continuous Semi-Implicit Models
- Title(参考訳): 連続半インプシットモデル
- Authors: Longlin Yu, Jiajun Zha, Tong Yang, Tianyu Xie, Xiangyu Zhang, S. -H. Gary Chan, Cheng Zhang,
- Abstract要約: CoSIMは連続的な半単純モデルであり、階層的な半単純モデルを連続的なフレームワークに拡張する。
連続的なトランジションカーネルを組み込むことで、CoSIMは効率的でシミュレーションなしのトレーニングを可能にする。
画像生成実験により、CoSIMは既存の拡散モデル加速法よりも同等以上の性能を示すことが示された。
- 参考スコア(独自算出の注目度): 22.146549321378377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-implicit distributions have shown great promise in variational inference and generative modeling. Hierarchical semi-implicit models, which stack multiple semi-implicit layers, enhance the expressiveness of semi-implicit distributions and can be used to accelerate diffusion models given pretrained score networks. However, their sequential training often suffers from slow convergence. In this paper, we introduce CoSIM, a continuous semi-implicit model that extends hierarchical semi-implicit models into a continuous framework. By incorporating a continuous transition kernel, CoSIM enables efficient, simulation-free training. Furthermore, we show that CoSIM achieves consistency with a carefully designed transition kernel, offering a novel approach for multistep distillation of generative models at the distributional level. Extensive experiments on image generation demonstrate that CoSIM performs on par or better than existing diffusion model acceleration methods, achieving superior performance on FD-DINOv2.
- Abstract(参考訳): 半単純分布は変分推論と生成的モデリングにおいて大きな可能性を示してきた。
複数の半単純層を積み重ねた階層的半単純モデルにより、半単純分布の表現性が向上し、事前訓練されたスコアネットワークによる拡散モデルの高速化に使用できる。
しかし、彼らの連続した訓練は、しばしば緩やかな収束に悩まされる。
本稿では,階層的半単純モデルを連続的なフレームワークに拡張した連続半単純モデルであるCoSIMを紹介する。
連続的なトランジションカーネルを組み込むことで、CoSIMは効率的でシミュレーションなしのトレーニングを可能にする。
さらに、CoSIMは、慎重に設計された遷移カーネルとの整合性を実現し、分散レベルで生成モデルの多段階蒸留を行うための新しいアプローチを提供する。
画像生成に関する大規模な実験により、CoSIMは既存の拡散モデル加速法よりも同等以上の性能を示し、FD-DINOv2上での優れた性能を実現している。
関連論文リスト
- Continuous Diffusion Model for Language Modeling [57.396578974401734]
離散データに対する既存の連続拡散モデルは、離散的アプローチと比較して性能が限られている。
本稿では,下層の分類分布の幾何学を組み込んだ言語モデリングのための連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2025-02-17T08:54:29Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Convergence Analysis of Discrete Diffusion Model: Exact Implementation
through Uniformization [17.535229185525353]
連続マルコフ連鎖の均一化を利用したアルゴリズムを導入し、ランダムな時間点の遷移を実装した。
我々の結果は、$mathbbRd$における拡散モデルの最先端の成果と一致し、さらに$mathbbRd$設定と比較して離散拡散モデルの利点を浮き彫りにする。
論文 参考訳(メタデータ) (2024-02-12T22:26:52Z) - Diffusion Glancing Transformer for Parallel Sequence to Sequence
Learning [52.72369034247396]
モーダリティ拡散プロセスと残差グランシングサンプリングを併用した拡散グランシング変換器を提案する。
DIFFGLATは、自己回帰モデルと非自己回帰モデルの両方と比較して、高速な復号速度を維持しながら、より優れた生成精度を実現する。
論文 参考訳(メタデータ) (2022-12-20T13:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。