論文の概要: Can Diffusion Models Disentangle? A Theoretical Perspective
- arxiv url: http://arxiv.org/abs/2504.00220v1
- Date: Mon, 31 Mar 2025 20:46:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:25:41.908099
- Title: Can Diffusion Models Disentangle? A Theoretical Perspective
- Title(参考訳): 拡散モデルと解離は可能か? : 理論的展望
- Authors: Liming Wang, Muhammad Jehanzeb Mirza, Yishu Gong, Yuan Gong, Jiaqi Zhang, Brian H. Tracey, Katerina Placek, Marco Vilela, James R. Glass,
- Abstract要約: 本稿では,拡散モデルが非交叉表現を学習する方法を理解するための新しい理論的枠組みを提案する。
我々は、一般的な非絡み付き潜在変数モデルの識別可能性条件を確立し、トレーニング力学を解析し、非絡み付き潜在部分空間モデルのサンプル複雑性境界を導出する。
- 参考スコア(独自算出の注目度): 52.360881354319986
- License:
- Abstract: This paper presents a novel theoretical framework for understanding how diffusion models can learn disentangled representations. Within this framework, we establish identifiability conditions for general disentangled latent variable models, analyze training dynamics, and derive sample complexity bounds for disentangled latent subspace models. To validate our theory, we conduct disentanglement experiments across diverse tasks and modalities, including subspace recovery in latent subspace Gaussian mixture models, image colorization, image denoising, and voice conversion for speech classification. Additionally, our experiments show that training strategies inspired by our theory, such as style guidance regularization, consistently enhance disentanglement performance.
- Abstract(参考訳): 本稿では,拡散モデルが非交叉表現を学習する方法を理解するための新しい理論的枠組みを提案する。
この枠組みでは、一般的な非絡み付き潜伏変数モデルに対する識別可能性条件を確立し、トレーニング力学を分析し、非絡み付き潜伏部分空間モデルに対するサンプル複雑性境界を導出する。
提案理論を検証するために,潜時空間ガウス混合モデルにおける部分空間復元,画像のカラー化,画像のデノナイズ,音声の音声変換など,様々なタスクやモダリティにまたがるアンタングル化実験を行った。
さらに,本実験は,スタイル指導規則化などの理論にインスパイアされたトレーニング戦略が,不整合性能を継続的に向上することを示す。
関連論文リスト
- Generalized Diffusion Model with Adjusted Offset Noise [1.7767466724342067]
本稿では,厳密な確率的枠組みの中で自然に付加的な雑音を取り入れた一般化拡散モデルを提案する。
我々は、ある調整でノイズを相殺する理論的等価性を確立し、証拠の低い境界に基づいて損失関数を導出する。
合成データセットの実験により、我々のモデルは輝度に関する課題に効果的に対処し、高次元シナリオにおいて従来の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-12-04T08:57:03Z) - On the Feature Learning in Diffusion Models [26.53807235141923]
本稿では,拡散モデルの学習力学を従来の分類モデルと比較し,分析・比較することを目的とした特徴学習フレームワークを提案する。
我々の理論的分析は、拡散モデルがデノナイジング目的のために、データのよりバランスよく包括的な表現を学習することを奨励していることを示している。
対照的に、分類のためにトレーニングされた類似アーキテクチャを持つニューラルネットワークは、データ内の特定のパターンを学ぶことを優先する傾向があり、多くの場合、簡単に学習できるコンポーネントに焦点を当てる。
論文 参考訳(メタデータ) (2024-12-02T00:41:25Z) - How Diffusion Models Learn to Factorize and Compose [14.161975556325796]
拡散モデルは、トレーニングセットに表示されない可能性のある要素を組み合わせた、フォトリアリスティックな画像を生成することができる。
本研究では,拡散モデルが構成可能な特徴の意味的意味的・要因的表現を学習するかどうかを考察する。
論文 参考訳(メタデータ) (2024-08-23T17:59:03Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Unveil Conditional Diffusion Models with Classifier-free Guidance: A Sharp Statistical Theory [87.00653989457834]
条件付き拡散モデルは現代の画像合成の基礎となり、計算生物学や強化学習などの分野に広く応用されている。
経験的成功にもかかわらず、条件拡散モデルの理論はほとんど欠落している。
本稿では,条件拡散モデルを用いた分布推定の急激な統計的理論を提示することにより,ギャップを埋める。
論文 参考訳(メタデータ) (2024-03-18T17:08:24Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Structure Preserving Diffusion Models [19.374406313635966]
本稿では,構造保存拡散モデル(SPDM)に焦点を当てる。
拡散過程に影響を及ぼす幾何学的構造を考慮した新しい枠組みを提案する。
画像雑音の低減とスタイル伝達を実現する等変拡散ブリッジモデルを実装した。
論文 参考訳(メタデータ) (2024-02-29T17:16:20Z) - Diffeomorphic Measure Matching with Kernels for Generative Modeling [1.2058600649065618]
本稿では、常微分方程式(ODE)と再生成ケルネルヒルベルト空間(RKHS)を用いて、最小分散生成モデリングおよびサンプリングに向けた確率測度を伝達するための枠組みを提案する。
提案手法の理論的解析を行い,モデルの複雑さ,トレーニングセット内のサンプル数,モデルの誤識別という観点から,事前誤差境界を与える。
論文 参考訳(メタデータ) (2024-02-12T21:44:20Z) - Reduce, Reuse, Recycle: Compositional Generation with Energy-Based Diffusion Models and MCMC [102.64648158034568]
拡散モデルは、多くの領域において、生成モデリングの一般的なアプローチとなっている。
本稿では,新しい構成演算子の利用を可能にする拡散モデルのエネルギーベースパラメータ化を提案する。
これらのサンプルは、幅広い問題にまたがって構成生成の顕著な改善につながっている。
論文 参考訳(メタデータ) (2023-02-22T18:48:46Z) - Bi-Noising Diffusion: Towards Conditional Diffusion Models with
Generative Restoration Priors [64.24948495708337]
本研究では,事前訓練した非条件拡散モデルを用いて,予測サンプルをトレーニングデータ多様体に導入する手法を提案する。
我々は,超解像,着色,乱流除去,画像劣化作業におけるアプローチの有効性を実証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-12-14T17:26:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。