論文の概要: Diffusion Models and the Manifold Hypothesis: Log-Domain Smoothing is Geometry Adaptive
- arxiv url: http://arxiv.org/abs/2510.02305v1
- Date: Thu, 02 Oct 2025 17:59:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.288936
- Title: Diffusion Models and the Manifold Hypothesis: Log-Domain Smoothing is Geometry Adaptive
- Title(参考訳): 拡散モデルとマニフォールド仮説:対数領域の平滑化は幾何適応的である
- Authors: Tyler Farghly, Peter Potaptchik, Samuel Howard, George Deligiannidis, Jakiw Pidstrigach,
- Abstract要約: スコア関数の滑らか化はデータ多様体に滑らかな接点をもたらすことを示す。
また、拡散モデルが一般化する多様体は、適切な平滑化を選択することで制御できることを示す。
- 参考スコア(独自算出の注目度): 8.59897970836622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have achieved state-of-the-art performance, demonstrating remarkable generalisation capabilities across diverse domains. However, the mechanisms underpinning these strong capabilities remain only partially understood. A leading conjecture, based on the manifold hypothesis, attributes this success to their ability to adapt to low-dimensional geometric structure within the data. This work provides evidence for this conjecture, focusing on how such phenomena could result from the formulation of the learning problem through score matching. We inspect the role of implicit regularisation by investigating the effect of smoothing minimisers of the empirical score matching objective. Our theoretical and empirical results confirm that smoothing the score function -- or equivalently, smoothing in the log-density domain -- produces smoothing tangential to the data manifold. In addition, we show that the manifold along which the diffusion model generalises can be controlled by choosing an appropriate smoothing.
- Abstract(参考訳): 拡散モデルは最先端のパフォーマンスを達成し、様々な領域にまたがる顕著な一般化能力を示している。
しかし、これらの強力な能力を支えるメカニズムは、部分的にしか理解されていない。
多様体仮説に基づく先導予想は、この成功を、データ内の低次元幾何学的構造に適応する能力に起因している。
この研究は、このような現象が、スコアマッチングによる学習問題の定式化によってどのように引き起こされるかに焦点を当てた、この予想の証拠を提供する。
本研究では,経験的スコアマッチング目的の最小化効果を検証し,暗黙的正規化の役割を検証した。
我々の理論的および実証的な結果は、スコア関数の滑らか化(あるいは対数密度領域の滑らか化)がデータ多様体に滑らかな接点を生み出すことを証明している。
さらに,拡散モデルが一般化する多様体は,適切な平滑化を選択することで制御可能であることを示す。
関連論文リスト
- When and how can inexact generative models still sample from the data manifold? [2.4664553878979185]
スコア関数やドリフトベクトル場における学習誤差にもかかわらず、生成されたサンプルはデータ分布の支持を強調させるが、それから強調しないように見える。
我々は、上のリャプノフベクトルとデータ多様体の境界に沿った接空間とのアライメントがロバスト性をもたらすことを示す。
論文 参考訳(メタデータ) (2025-08-11T03:24:34Z) - Provable Maximum Entropy Manifold Exploration via Diffusion Models [58.89696361871563]
探索は科学的な発見のような現実世界の意思決定問題を解決するために重要である。
本稿では,事前学習した拡散モデルにより暗黙的に定義された近似データ多様体に対して,探索をエントロピーとしてキャストする新しいフレームワークを提案する。
本研究では,事前学習した拡散モデルの逐次微調整として探索問題を解くミラー降下に基づくアルゴリズムを開発する。
論文 参考訳(メタデータ) (2025-06-18T11:59:15Z) - Improving the Euclidean Diffusion Generation of Manifold Data by Mitigating Score Function Singularity [7.062379942776126]
一般多様体制約データに対するユークリッド拡散モデルの直接サンプリングについて検討する。
拡散生成サンプルの精度を阻害する多様体の埋め込み空間におけるスコア関数のマルチスケール特異点を明らかにする。
本稿では,特異性を緩和し,サンプリング精度を向上させる2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-15T03:12:27Z) - A Likelihood Based Approach to Distribution Regression Using Conditional Deep Generative Models [8.862614615192578]
本研究では,条件付き深部生成モデルの推定のための可能性に基づくアプローチの大規模サンプル特性について検討する。
その結果,条件分布を推定するための最大極大推定器の収束率を導いた。
論文 参考訳(メタデータ) (2024-10-02T20:46:21Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - Theoretical Insights for Diffusion Guidance: A Case Study for Gaussian
Mixture Models [59.331993845831946]
拡散モデルは、所望の特性に向けてサンプル生成を操るために、スコア関数にタスク固有の情報を注入することの恩恵を受ける。
本稿では,ガウス混合モデルの文脈における拡散モデルに対する誘導の影響を理解するための最初の理論的研究を提供する。
論文 参考訳(メタデータ) (2024-03-03T23:15:48Z) - Towards Characterizing Domain Counterfactuals For Invertible Latent Causal Models [15.817239008727789]
本研究では,異なるドメインで生成された場合,サンプルがどのようなものであったのかを仮定した,ドメイン反事実と呼ばれる特定のタイプの因果クエリを解析する。
本研究では, 潜在構造因果モデル (SCM) の回復は, ドメイン・デファクト・デファクトを推定するために不要であることを示す。
また、モデル生成過程を単純化し、生成モデル推定を行うための理論的基盤となる実用的なアルゴリズムも開発する。
論文 参考訳(メタデータ) (2023-06-20T04:19:06Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Diffusion Models are Minimax Optimal Distribution Estimators [49.47503258639454]
拡散モデリングの近似と一般化能力について、初めて厳密な分析を行った。
実密度関数がベソフ空間に属し、経験値整合損失が適切に最小化されている場合、生成したデータ分布は、ほぼ最小の最適推定値が得られることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:31:55Z) - DisDiff: Unsupervised Disentanglement of Diffusion Probabilistic Models [42.58375679841317]
拡散確率モデル(DPM)の解離という新たな課題を提案する。
この課題は、観測の背後にある固有の因子を自動的に発見し、DPMの勾配場を下位段階の磁場に分解することである。
そこで我々は,DPMの枠組みにおいて,不整合表現学習を実現するために,DisDiffという教師なしのアプローチを考案した。
論文 参考訳(メタデータ) (2023-01-31T15:58:32Z) - Demystifying Disagreement-on-the-Line in High Dimensions [34.103373453782744]
我々は高次元のランダム特徴回帰における不一致を解析するための理論的基盤を開発する。
CIFAR-10-C、Tiny ImageNet-C、Camelyon17の実験は、我々の理論と一致しており、理論的な発見の普遍性を支持する。
論文 参考訳(メタデータ) (2023-01-31T02:31:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。