論文の概要: DisDiff: Unsupervised Disentanglement of Diffusion Probabilistic Models
- arxiv url: http://arxiv.org/abs/2301.13721v1
- Date: Tue, 31 Jan 2023 15:58:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 16:02:09.975347
- Title: DisDiff: Unsupervised Disentanglement of Diffusion Probabilistic Models
- Title(参考訳): DisDiff:拡散確率モデルの教師なし解離
- Authors: Tao Yang, Yuwang Wang, Yan Lv, Nanning Zh
- Abstract要約: 拡散確率モデル(DPM)の解離という新たな課題を提案する。
拡散確率モデルの枠組みにおいて,初めて不整合表現学習を実現する。
本稿では,ディディフのためのディスタングルロス(Disentangling Loss for DisDiff)を提案する。
- 参考スコア(独自算出の注目度): 8.170769885786024
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, targeting to understand the underlying explainable factors
behind observations and modeling the conditional generation process on these
factors, we propose a new task, disentanglement of diffusion probabilistic
models (DPMs), to take advantage of the remarkable modeling ability of DPMs. To
tackle this task, we further devise an unsupervised approach named DisDiff. For
the first time, we achieve disentangled representation learning in the
framework of diffusion probabilistic models. Given a pre-trained DPM, DisDiff
can automatically discover the inherent factors behind the image data and
disentangle the gradient fields of DPM into sub-gradient fields, each
conditioned on the representation of each discovered factor. We propose a novel
Disentangling Loss for DisDiff to facilitate the disentanglement of the
representation and sub-gradients. The extensive experiments on synthetic and
real-world datasets demonstrate the effectiveness of DisDiff.
- Abstract(参考訳): 本稿では,これらの因子の観測と条件生成プロセスのモデル化の背景となる要因を理解することを目的として,DPMの顕著なモデリング能力を活用するために,拡散確率モデル(DPM)の非絡み合いという新たな課題を提案する。
この課題に対処するために、DisDiffという教師なしのアプローチをさらに考案する。
拡散確率モデルの枠組みにおいて, 初めて絡み合った表現学習を実現する。
事前訓練されたDPMが与えられたとき、DisDiffは画像データの背後にある固有の因子を自動的に発見し、各因子の表現に基づいてDPMの勾配場を下位段階の場に分解する。
本稿では,ディディフのためのディスタングルロス(Disentangling Loss for DisDiff)を提案する。
合成および実世界のデータセットに関する広範な実験は、DisDiffの有効性を示している。
関連論文リスト
- On the Asymptotic Mean Square Error Optimality of Diffusion
Probabilistic Models [11.36421166482957]
拡散確率モデル (DPM) は近年, タスクをデノナイズする大きな可能性を示している。
本論文は, DPM復調戦略を平均二乗誤差(MSE)-最適条件平均推定器に厳密に収束させることにより, 新たな理論的知見を提供する。
論文 参考訳(メタデータ) (2024-03-05T13:25:44Z) - Contractive Diffusion Probabilistic Models [6.164223149261533]
拡散確率モデル (DPM) は生成的モデリングにおいて有望な技術として登場してきた。
DPMの設計における後方サンプリングの縮小という新しい基準を提案する。
これは、CDPM(Contractive DPMs)の新たなクラスに繋がる。
論文 参考訳(メタデータ) (2024-01-23T21:51:51Z) - Mitigating Biases with Diverse Ensembles and Diffusion Models [99.6100669122048]
拡散確率モデル(DPM)を利用したアンサンブル多様化フレームワークを提案する。
DPMは、相関した入力特徴を示すサンプルを用いて訓練しても、新しい特徴の組み合わせで画像を生成することができることを示す。
そこで本研究では,DPM誘導の多様化は,制御信号の追加を必要とせず,一次ショートカットキューへの依存を取り除くのに十分であることを示す。
論文 参考訳(メタデータ) (2023-11-23T15:47:33Z) - Energy-Based Models for Anomaly Detection: A Manifold Diffusion Recovery
Approach [12.623417770432146]
本稿では,データ内の低次元構造を利用した異常検出のための新しいエネルギーベースモデル(EBM)のトレーニング手法を提案する。
提案したアルゴリズムであるManifold Projection-Diffusion Recovery (MPDR) は、トレーニングデータセットを近似した低次元多様体に沿ったデータポイントを摂動する。
実験の結果,MPDRは多種多様なデータ型を含む様々な異常検出タスクに対して高い性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-10-28T11:18:39Z) - Diffusion Model as Representation Learner [86.09969334071478]
Diffusion Probabilistic Models (DPMs) は、最近、様々な生成タスクにおいて顕著な結果を示した。
本稿では,DPMが獲得した知識を認識タスクに活用する新しい知識伝達手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T00:38:39Z) - AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of
Diffusion Probabilistic Models [136.58244210412352]
既存のカスタマイズ方法は、事前訓練された拡散確率モデルをユーザが提供する概念に合わせるために、複数の参照例にアクセスする必要がある。
本論文は、DPMカスタマイズの課題として、生成コンテンツ上で定義された差別化可能な指標が唯一利用可能な監督基準である場合に解決することを目的とする。
本稿では,拡散モデルから新しいサンプルを初めて生成するAdjointDPMを提案する。
次に、随伴感度法を用いて、損失の勾配をモデルのパラメータにバックプロパゲートする。
論文 参考訳(メタデータ) (2023-07-20T09:06:21Z) - On Calibrating Diffusion Probabilistic Models [78.75538484265292]
拡散確率モデル(DPM)は様々な生成タスクにおいて有望な結果を得た。
そこで本研究では,任意の事前学習DPMを校正する簡単な方法を提案する。
キャリブレーション法は1回だけ行い, 得られたモデルをサンプリングに繰り返し使用することができる。
論文 参考訳(メタデータ) (2023-02-21T14:14:40Z) - Robust Face Anti-Spoofing with Dual Probabilistic Modeling [49.14353429234298]
本稿では、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えたDPM(Dual Probabilistic Modeling)という統合フレームワークを提案する。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中のFalse Reject'およびFalse Accept'からデータノイズを除去することができる。
論文 参考訳(メタデータ) (2022-04-27T03:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。