論文の概要: Classification Diffusion Models
- arxiv url: http://arxiv.org/abs/2402.10095v1
- Date: Thu, 15 Feb 2024 16:49:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 14:48:09.841610
- Title: Classification Diffusion Models
- Title(参考訳): 分類拡散モデル
- Authors: Shahar Yadin, Noam Elata, Tomer Michaeli
- Abstract要約: $textit Diffusion Models$ (CDMs) は、DDMの認知に基づく形式化を採用する生成技術である。
提案手法は,白色ガウス雑音に対するMSE-最適雑音分解器を,雑音レベル予測のためのクロスエントロピー-最適分類器の勾配で表現できることに基づく。
- 参考スコア(独自算出の注目度): 23.89916376623198
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A prominent family of methods for learning data distributions relies on
density ratio estimation (DRE), where a model is trained to $\textit{classify}$
between data samples and samples from some reference distribution. These
techniques are successful in simple low-dimensional settings but fail to
achieve good results on complex high-dimensional data, like images. A different
family of methods for learning distributions is that of denoising diffusion
models (DDMs), in which a model is trained to $\textit{denoise}$ data samples.
These approaches achieve state-of-the-art results in image, video, and audio
generation. In this work, we present $\textit{Classification Diffusion Models}$
(CDMs), a generative technique that adopts the denoising-based formalism of
DDMs while making use of a classifier that predicts the amount of noise added
to a clean signal, similarly to DRE methods. Our approach is based on the
observation that an MSE-optimal denoiser for white Gaussian noise can be
expressed in terms of the gradient of a cross-entropy-optimal classifier for
predicting the noise level. As we illustrate, CDM achieves better denoising
results compared to DDM, and leads to at least comparable FID in image
generation. CDM is also capable of highly efficient one-step exact likelihood
estimation, achieving state-of-the-art results among methods that use a single
step. Code is available on the project's webpage in
https://shaharYadin.github.io/CDM/ .
- Abstract(参考訳): データ分散を学習する一流の手法は密度比推定(DRE)に依存し、モデルがデータサンプルと参照分布からのサンプルの間で$\textit{classify}$にトレーニングされる。
これらの手法は単純な低次元設定では成功しているが、画像のような複雑な高次元データでは良い結果を得ることができない。
分散を学習する別の方法の1つに拡散モデル(DDM)があるが、そこではモデルが$\textit{denoise}$データサンプルに訓練される。
これらのアプローチは、画像、ビデオ、オーディオ生成における最先端の結果を達成する。
本稿では、DRE法と同様にクリーン信号に付加される雑音の量を予測する分類器を用いて、DDMの復調に基づく定式化を採用する生成手法である$\textit{Classification Diffusion Models}$(CDMs)を提案する。
提案手法は,白色ガウス雑音に対するMSE-最適雑音分解器を,雑音レベル予測のためのクロスエントロピー-最適分類器の勾配で表現できることに基づく。
以下に示すように、CDMはDDMと比較してより優れた分解結果を得ることができ、画像生成において少なくとも同等のFIDをもたらす。
cdmは、1ステップのメソッド間で最先端の結果を得るため、高効率な1ステップ正確な推定も可能である。
コードはプロジェクトのwebページからhttps://shaharyadin.github.io/cdm/で入手できる。
関連論文リスト
- Improving Denoising Diffusion Probabilistic Models via Exploiting Shared
Representations [5.517338199249029]
SR-DDPMはノイズ拡散過程を逆転することで高品質な画像を生成する生成モデルのクラスである。
多様なデータ分布の類似性を利用して、画像の品質を損なうことなく、複数のタスクにスケールできる。
提案手法を標準画像データセット上で評価し、FIDとSSIMの指標で条件付きDDPMと条件付きDDPMの両方より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-27T22:30:26Z) - Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - A Novel Truncated Norm Regularization Method for Multi-channel Color
Image Denoising [5.624787484101139]
本論文は,DtNFM法(DtNFM法)を用いて,二重重み付き核ノルム最小化法(double-weighted truncated nuclear norm minus truncated Frobenius norm minimization, DtNFM法)を用いてカラー画像のノイズ化を行う。
雑音像の非局所的な自己相似性を利用して、類似した構造を収集し、類似したパッチ行列を連続的に構築する。
合成および実雑音データセットの実験により、提案手法は、多くの最先端カラー画像復調法より優れていることを示した。
論文 参考訳(メタデータ) (2023-07-16T03:40:35Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Data Augmentation for Seizure Prediction with Generative Diffusion Model [26.967247641926814]
重症度予測は患者の生活改善に非常に重要である。
初期データと中間データの間の深刻な不均衡問題は、依然として大きな課題となっている。
データ拡張は、この問題を解決するための直感的な方法です。
DiffEEGと呼ばれる拡散モデルを用いた新しいデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2023-06-14T05:44:53Z) - Fast Inference in Denoising Diffusion Models via MMD Finetuning [23.779985842891705]
拡散モデルの高速サンプリング法であるMDD-DDMを提案する。
我々のアプローチは、学習した分布を所定の予算のタイムステップで微調整するために、最大平均離散性(MMD)を使用するという考え方に基づいている。
提案手法は,広範に普及した拡散モデルで要求されるわずかな時間で高品質なサンプルを生成できることが示唆された。
論文 参考訳(メタデータ) (2023-01-19T09:48:07Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Bridging the Gap Between Clean Data Training and Real-World Inference
for Spoken Language Understanding [76.89426311082927]
既存のモデルはクリーンデータに基づいてトレーニングされ、クリーンデータトレーニングと現実世界の推論の間にtextitgapが発生する。
本稿では,良質なサンプルと低品質のサンプルの両方が類似ベクトル空間に埋め込まれた領域適応法を提案する。
広く使用されているデータセット、スニップス、および大規模な社内データセット(1000万のトレーニング例)に関する実験では、この方法は実世界の(騒々しい)コーパスのベースラインモデルを上回るだけでなく、堅牢性、すなわち、騒々しい環境下で高品質の結果を生み出すことを実証しています。
論文 参考訳(メタデータ) (2021-04-13T17:54:33Z) - Learning Energy-Based Models by Diffusion Recovery Likelihood [61.069760183331745]
本稿では,エネルギーベースモデルから気軽に学習・サンプルできる拡散回復可能性法を提案する。
学習後、ガウスの白色雑音分布から初期化するサンプリングプロセスにより合成画像を生成することができる。
非条件 CIFAR-10 では,本手法は FID 9.58 と開始スコア 8.30 を達成する。
論文 参考訳(メタデータ) (2020-12-15T07:09:02Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。