論文の概要: A Survey on Generative Diffusion Model
- arxiv url: http://arxiv.org/abs/2209.02646v9
- Date: Mon, 3 Jul 2023 15:37:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-04 15:50:47.714969
- Title: A Survey on Generative Diffusion Model
- Title(参考訳): 生成拡散モデルに関する調査研究
- Authors: Hanqun Cao, Cheng Tan, Zhangyang Gao, Yilun Xu, Guangyong Chen,
Pheng-Ann Heng, and Stan Z. Li
- Abstract要約: 拡散モデルは、深層生成モデルの新たなクラスである。
時間を要する反復生成過程や高次元ユークリッド空間への閉じ込めなど、いくつかの制限がある。
本調査では,拡散モデルの向上を目的とした高度な手法を多数提示する。
- 参考スコア(独自算出の注目度): 75.93774014861978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep generative models are a prominent approach for data generation, and have
been used to produce high quality samples in various domains. Diffusion models,
an emerging class of deep generative models, have attracted considerable
attention owing to their exceptional generative quality. Despite this, they
have certain limitations, including a time-consuming iterative generation
process and confinement to high-dimensional Euclidean space. This survey
presents a plethora of advanced techniques aimed at enhancing diffusion models,
including sampling acceleration and the design of new diffusion processes. In
addition, we delve into strategies for implementing diffusion models in
manifold and discrete spaces, maximum likelihood training for diffusion models,
and methods for creating bridges between two arbitrary distributions. The
innovations we discuss represent the efforts for improving the functionality
and efficiency of diffusion models in recent years. To examine the efficacy of
existing models, a benchmark of FID score, IS, and NLL is presented in a
specific NFE. Furthermore, diffusion models are found to be useful in various
domains such as computer vision, audio, sequence modeling, and AI for science.
The paper concludes with a summary of this field, along with existing
limitations and future directions. Summation of existing well-classified
methods is in our Github:
https://github.com/chq1155/A-Survey-on-Generative-Diffusion-Model
- Abstract(参考訳): 深層生成モデルはデータ生成の際立ったアプローチであり、様々な領域で高品質なサンプルを生成するために使われてきた。
深層生成モデルの新興クラスである拡散モデルは、その例外的な生成品質のためにかなりの注目を集めている。
それにもかかわらず、時間を要する反復生成プロセスや高次元ユークリッド空間への閉じ込めなど、ある種の制限がある。
本研究は, サンプリング加速や新しい拡散プロセスの設計など, 拡散モデルの向上を目的とした, 高度な手法を多数提示する。
さらに, 多様体空間と離散空間における拡散モデルの実装戦略, 拡散モデルの最大確率トレーニング, 2つの任意の分布間のブリッジを作成する手法について考察した。
本稿では,近年の拡散モデルの機能性と効率向上に向けた取り組みについて述べる。
既存のモデルの有効性を検討するために、特定のNFEにFIDスコア、IS、NLLのベンチマークを示す。
さらに、拡散モデルはコンピュータビジョン、オーディオ、シーケンスモデリング、科学のためのAIといった様々な領域で有用である。
論文は、既存の制限と今後の方向性とともに、この分野の概要で締めくくっている。
既存のよく分類されたメソッドの要約はgithubにある: https://github.com/chq1155/a-survey-on-generative-diffusion-model
関連論文リスト
- Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Diffusion Models in Low-Level Vision: A Survey [82.77962165415153]
拡散モデルに基づくソリューションは、優れた品質と多様性のサンプルを作成する能力で広く称賛されている。
本稿では,3つの一般化拡散モデリングフレームワークを提案し,それらと他の深層生成モデルとの相関関係について検討する。
医療、リモートセンシング、ビデオシナリオなど、他のタスクに適用された拡張拡散モデルについて要約する。
論文 参考訳(メタデータ) (2024-06-17T01:49:27Z) - An Overview of Diffusion Models: Applications, Guided Generation, Statistical Rates and Optimization [59.63880337156392]
拡散モデルはコンピュータビジョン、オーディオ、強化学習、計算生物学において大きな成功を収めた。
経験的成功にもかかわらず、拡散モデルの理論は非常に限定的である。
本稿では,前向きな理論や拡散モデルの手法を刺激する理論的露光について述べる。
論文 参考訳(メタデータ) (2024-04-11T14:07:25Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Diffusion Models for Time Series Applications: A Survey [23.003273147019446]
拡散モデルは現在、画像、ビデオ、テキスト合成に使われている。
我々は,時系列予測,計算,生成のための拡散に基づく手法に着目する。
拡散型手法の共通限界を結論し,今後の研究の方向性を明らかにする。
論文 参考訳(メタデータ) (2023-05-01T02:06:46Z) - DAG: Depth-Aware Guidance with Denoising Diffusion Probabilistic Models [23.70476220346754]
拡散モデルの豊かな中間表現から得られた推定深度情報を利用する拡散モデルのための新しいガイダンス手法を提案する。
実験と広範囲にわたるアブレーション研究により,幾何学的に妥当な画像生成に向けた拡散モデルの導出における本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-17T12:47:19Z) - Diffusion Models in Vision: A Survey [80.82832715884597]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - Diffusion Models: A Comprehensive Survey of Methods and Applications [10.557289965753437]
拡散モデル(英: Diffusion model)は、密度理論の確立を伴う様々なタスクにおいて印象的な結果を示す深層生成モデルのクラスである。
近年,拡散モデルの性能向上への熱意が高まっている。
論文 参考訳(メタデータ) (2022-09-02T02:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。