論文の概要: A Survey on Generative Diffusion Model
- arxiv url: http://arxiv.org/abs/2209.02646v1
- Date: Tue, 6 Sep 2022 16:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 13:50:43.265954
- Title: A Survey on Generative Diffusion Model
- Title(参考訳): 生成拡散モデルに関する調査研究
- Authors: Hanqun Cao, Cheng Tan, Zhangyang Gao, Guangyong Chen, Pheng-Ann Heng,
and Stan Z. Li
- Abstract要約: 拡散モデルには、遅い生成過程の自然な欠点があり、多くの強化された研究につながっている。
本稿では,学習スケジュール,トレーニング不要サンプリング,混合モデリング,スコア・アンド・拡散統一といった,拡散モデルを高速化する高度な手法を提案する。
拡散モデルを持つアプリケーションは、コンピュータビジョン、シーケンスモデリング、オーディオ、科学のためのAIを含む。
- 参考スコア(独自算出の注目度): 75.51029309815213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning shows great potential in generation tasks thanks to deep latent
representation. Generative models are classes of models that can generate
observations randomly with respect to certain implied parameters. Recently, the
diffusion Model becomes a raising class of generative models by virtue of its
power-generating ability. Nowadays, great achievements have been reached. More
applications except for computer vision, speech generation, bioinformatics, and
natural language processing are to be explored in this field. However, the
diffusion model has its natural drawback of a slow generation process, leading
to many enhanced works. This survey makes a summary of the field of the
diffusion model. We firstly state the main problem with two landmark works -
DDPM and DSM. Then, we present a diverse range of advanced techniques to speed
up the diffusion models - training schedule, training-free sampling,
mixed-modeling, and score & diffusion unification. Regarding existing models,
we also provide a benchmark of FID score, IS, and NLL according to specific
NFE. Moreover, applications with diffusion models are introduced including
computer vision, sequence modeling, audio, and AI for science. Finally, there
is a summarization of this field together with limitations & further
directions.
- Abstract(参考訳): ディープラーニングは、深い潜伏表現のおかげで、生成タスクに大きな可能性を示す。
生成モデルは、ある暗黙のパラメータに関してランダムに観測を生成できるモデルのクラスである。
近年, 拡散モデルは, 発電能力の高まりにより, 生成モデルの育成クラスとなっている。
今日では大きな成果が達成されている。
この分野では、コンピュータビジョン、音声生成、バイオインフォマティクス、自然言語処理以外の多くの応用が検討される。
しかし、拡散モデルは生成過程が遅いという自然な欠点があり、多くの改良された作品に繋がる。
本調査では拡散モデルの分野について概説する。
まず、2つの目印となるDDPMとDSMで主要な問題を述べる。
次に,拡散モデルを高速化するための様々な高度な手法 - トレーニングスケジュール,トレーニングフリーサンプリング,混合モデリング,スコアと拡散の統一など - を提案する。
既存のモデルに関しては、特定のNFEに応じて、FIDスコア、IS、NLLのベンチマークも提供します。
さらに、コンピュータビジョン、シーケンスモデリング、オーディオ、ai for scienceなどの拡散モデルアプリケーションも紹介されている。
最後に、制限とさらなる方向とともに、この分野の要約がある。
関連論文リスト
- Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Diffusion-based graph generative methods [54.76520536632757]
拡散に基づくグラフ生成法について,系統的,包括的に検討した。
まず,拡散モデル,スコアベース生成モデル,微分方程式の3つの主流パラダイムについて概説する。
最後に,現在の研究の限界と今後の探査の方向性を指摘する。
論文 参考訳(メタデータ) (2024-01-28T10:09:05Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - A Survey of Diffusion Models in Natural Language Processing [11.233768932957771]
拡散モデルは、ネットワークや多様体にまたがる情報や信号の拡散を捉える。
本稿は,NLPで使用される拡散モデルの異なる定式化,その強度と限界,それらの応用について論じる。
論文 参考訳(メタデータ) (2023-05-24T03:25:32Z) - Diffusion Models for Time Series Applications: A Survey [23.003273147019446]
拡散モデルは現在、画像、ビデオ、テキスト合成に使われている。
我々は,時系列予測,計算,生成のための拡散に基づく手法に着目する。
拡散型手法の共通限界を結論し,今後の研究の方向性を明らかにする。
論文 参考訳(メタデータ) (2023-05-01T02:06:46Z) - Interpretable ODE-style Generative Diffusion Model via Force Field
Construction [0.0]
本稿では,数理的な観点からODE型生成拡散モデルを構築するのに適した様々な物理モデルを特定することを目的とする。
我々は,本手法で同定された理論モデルを用いて,新しい拡散モデル手法の開発を行うケーススタディを行う。
論文 参考訳(メタデータ) (2023-03-14T16:58:11Z) - DAG: Depth-Aware Guidance with Denoising Diffusion Probabilistic Models [23.70476220346754]
拡散モデルの豊かな中間表現から得られた推定深度情報を利用する拡散モデルのための新しいガイダンス手法を提案する。
実験と広範囲にわたるアブレーション研究により,幾何学的に妥当な画像生成に向けた拡散モデルの導出における本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-17T12:47:19Z) - Diffusion Models in Vision: A Survey [80.82832715884597]
拡散モデルは、前方拡散段階と逆拡散段階の2つの段階に基づく深層生成モデルである。
拡散モデルは、既知の計算負荷にもかかわらず、生成したサンプルの品質と多様性に対して広く評価されている。
論文 参考訳(メタデータ) (2022-09-10T22:00:30Z) - Diffusion Models: A Comprehensive Survey of Methods and Applications [10.557289965753437]
拡散モデル(英: Diffusion model)は、密度理論の確立を伴う様々なタスクにおいて印象的な結果を示す深層生成モデルのクラスである。
近年,拡散モデルの性能向上への熱意が高まっている。
論文 参考訳(メタデータ) (2022-09-02T02:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。