論文の概要: DisDiff: Unsupervised Disentanglement of Diffusion Probabilistic Models
- arxiv url: http://arxiv.org/abs/2301.13721v2
- Date: Wed, 1 Feb 2023 03:44:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 18:47:09.232345
- Title: DisDiff: Unsupervised Disentanglement of Diffusion Probabilistic Models
- Title(参考訳): DisDiff:拡散確率モデルの教師なし解離
- Authors: Tao Yang, Yuwang Wang, Yan Lv, Nanning Zheng
- Abstract要約: 拡散確率モデル(DPM)の解離という新たな課題を提案する。
拡散確率モデルの枠組みにおいて,初めて不整合表現学習を実現する。
本稿では,ディディフのためのディスタングルロス(Disentangling Loss for DisDiff)を提案する。
- 参考スコア(独自算出の注目度): 56.52999991727738
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, targeting to understand the underlying explainable factors
behind observations and modeling the conditional generation process on these
factors, we propose a new task, disentanglement of diffusion probabilistic
models (DPMs), to take advantage of the remarkable modeling ability of DPMs. To
tackle this task, we further devise an unsupervised approach named DisDiff. For
the first time, we achieve disentangled representation learning in the
framework of diffusion probabilistic models. Given a pre-trained DPM, DisDiff
can automatically discover the inherent factors behind the image data and
disentangle the gradient fields of DPM into sub-gradient fields, each
conditioned on the representation of each discovered factor. We propose a novel
Disentangling Loss for DisDiff to facilitate the disentanglement of the
representation and sub-gradients. The extensive experiments on synthetic and
real-world datasets demonstrate the effectiveness of DisDiff.
- Abstract(参考訳): 本稿では,これらの因子の観測と条件生成プロセスのモデル化の背景となる要因を理解することを目的として,DPMの顕著なモデリング能力を活用するために,拡散確率モデル(DPM)の非絡み合いという新たな課題を提案する。
この課題に対処するために、DisDiffという教師なしのアプローチをさらに考案する。
拡散確率モデルの枠組みにおいて, 初めて絡み合った表現学習を実現する。
事前訓練されたDPMが与えられたとき、DisDiffは画像データの背後にある固有の因子を自動的に発見し、各因子の表現に基づいてDPMの勾配場を下位段階の場に分解する。
本稿では,ディディフのためのディスタングルロス(Disentangling Loss for DisDiff)を提案する。
合成および実世界のデータセットに関する広範な実験は、DisDiffの有効性を示している。
関連論文リスト
- Towards a Theoretical Understanding of Memorization in Diffusion Models [76.85077961718875]
拡散確率モデル(DPM)は、生成人工知能(GenAI)の主流モデルとして採用されている。
モデル収束を前提とした条件付きおよび非条件付きDPMにおける記憶の理論的理解を提供する。
本研究では、生成されたデータに基づいて訓練された時間依存型分類器を代理条件として利用し、無条件DPMからトレーニングデータを抽出する、textbfSurrogate condItional Data extract (SIDE) という新しいデータ抽出手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T13:17:06Z) - Contractive Diffusion Probabilistic Models [5.217870815854702]
拡散確率モデル (DPM) は生成的モデリングにおいて有望な手法である。
我々は、DPMの設計における後方サンプリングの収縮特性を新たな基準として提案し、新しいCDPM(Contractive DPM)のクラスを導出する。
以上の結果から,CDPMは単純な変換で事前学習したDPMの重みを活用でき,再学習は不要であることが示唆された。
論文 参考訳(メタデータ) (2024-01-23T21:51:51Z) - Mitigating Shortcut Learning with Diffusion Counterfactuals and Diverse Ensembles [95.49699178874683]
拡散確率モデル(DPM)を利用したアンサンブル多様化フレームワークDiffDivを提案する。
DPMは、相関した入力特徴を示すサンプルを用いて訓練しても、新しい特徴の組み合わせで画像を生成することができることを示す。
そこで本研究では,DPM誘導の多様化は,教師付き信号の追加を必要とせず,ショートカットキューへの依存を取り除くのに十分であることを示す。
論文 参考訳(メタデータ) (2023-11-23T15:47:33Z) - Energy-Based Models for Anomaly Detection: A Manifold Diffusion Recovery
Approach [12.623417770432146]
本稿では,データ内の低次元構造を利用した異常検出のための新しいエネルギーベースモデル(EBM)のトレーニング手法を提案する。
提案したアルゴリズムであるManifold Projection-Diffusion Recovery (MPDR) は、トレーニングデータセットを近似した低次元多様体に沿ったデータポイントを摂動する。
実験の結果,MPDRは多種多様なデータ型を含む様々な異常検出タスクに対して高い性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-10-28T11:18:39Z) - Diffusion Model as Representation Learner [86.09969334071478]
Diffusion Probabilistic Models (DPMs) は、最近、様々な生成タスクにおいて顕著な結果を示した。
本稿では,DPMが獲得した知識を認識タスクに活用する新しい知識伝達手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T00:38:39Z) - AdjointDPM: Adjoint Sensitivity Method for Gradient Backpropagation of Diffusion Probabilistic Models [103.41269503488546]
既存のカスタマイズ方法は、事前訓練された拡散確率モデルをユーザが提供する概念に合わせるために、複数の参照例にアクセスする必要がある。
本論文は、DPMカスタマイズの課題として、生成コンテンツ上で定義された差別化可能な指標が唯一利用可能な監督基準である場合に解決することを目的とする。
本稿では,拡散モデルから新しいサンプルを初めて生成するAdjointDPMを提案する。
次に、随伴感度法を用いて、損失の勾配をモデルのパラメータにバックプロパゲートする。
論文 参考訳(メタデータ) (2023-07-20T09:06:21Z) - Robust Face Anti-Spoofing with Dual Probabilistic Modeling [49.14353429234298]
本稿では、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えたDPM(Dual Probabilistic Modeling)という統合フレームワークを提案する。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中のFalse Reject'およびFalse Accept'からデータノイズを除去することができる。
論文 参考訳(メタデータ) (2022-04-27T03:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。