論文の概要: When Scores Learn Geometry: Rate Separations under the Manifold Hypothesis
- arxiv url: http://arxiv.org/abs/2509.24912v1
- Date: Mon, 29 Sep 2025 15:18:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.085113
- Title: When Scores Learn Geometry: Rate Separations under the Manifold Hypothesis
- Title(参考訳): スコアが幾何学を学ぶとき:マニフォールド仮説の下での速度分離
- Authors: Xiang Li, Zebang Shen, Ya-Ping Hsieh, Niao He,
- Abstract要約: 拡散モデルと逆問題はしばしば低雑音限界におけるデータ分布の学習として解釈される。
彼らの成功は、完全な分布ではなく、データ多様体を暗黙的に学習することから生じると我々は主張する。
スコア誤差が$o(sigma-2)$であるのに対して、特定のデータ分布を復元するにはより厳密な$o(1)$エラーが必要である。
- 参考スコア(独自算出の注目度): 33.93481564069631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Score-based methods, such as diffusion models and Bayesian inverse problems, are often interpreted as learning the data distribution in the low-noise limit ($\sigma \to 0$). In this work, we propose an alternative perspective: their success arises from implicitly learning the data manifold rather than the full distribution. Our claim is based on a novel analysis of scores in the small-$\sigma$ regime that reveals a sharp separation of scales: information about the data manifold is $\Theta(\sigma^{-2})$ stronger than information about the distribution. We argue that this insight suggests a paradigm shift from the less practical goal of distributional learning to the more attainable task of geometric learning, which provably tolerates $O(\sigma^{-2})$ larger errors in score approximation. We illustrate this perspective through three consequences: i) in diffusion models, concentration on data support can be achieved with a score error of $o(\sigma^{-2})$, whereas recovering the specific data distribution requires a much stricter $o(1)$ error; ii) more surprisingly, learning the uniform distribution on the manifold-an especially structured and useful object-is also $O(\sigma^{-2})$ easier; and iii) in Bayesian inverse problems, the maximum entropy prior is $O(\sigma^{-2})$ more robust to score errors than generic priors. Finally, we validate our theoretical findings with preliminary experiments on large-scale models, including Stable Diffusion.
- Abstract(参考訳): 拡散モデルやベイズ逆問題のようなスコアベースの手法は、しばしば低雑音の極限(\sigma \to 0$)でデータ分布を学ぶものとして解釈される。
そこで本研究では,全分布ではなく,データ多様体を暗黙的に学習することで,その成功が生まれる,という別の視点を提案する。
我々の主張は、小さな$\sigma$体制におけるスコアの新たな分析に基づいており、これはスケールの鋭い分離を明らかにしている: データ多様体に関する情報は、分布に関する情報よりも強い$\Theta(\sigma^{-2})$である。
この知見は,分布学習のより実践的な目標から,より達成可能な幾何学習へのパラダイムシフトを示唆している。
この視点を3つの結果から説明します。
i)拡散モデルでは、スコア誤差が$o(\sigma^{-2})$であるのに対して、特定のデータ分布を復元するにはより厳格な$o(1)$エラーが必要である。
i)より驚くべきことに、多様体上の一様分布、特に構造化され有用な対象について学習すること。
三 ベイズ逆問題において、最大エントロピー前のエントロピーが$O(\sigma^{-2})$で、一般的な先行よりもエラーをスコアする。
最後に, 安定拡散を含む大規模モデルに関する予備実験により, 理論的知見を検証した。
関連論文リスト
- Instance-dependent Convergence Theory for Diffusion Models [7.237817437521988]
我々は、異なる対象分布の滑らかさに適応する収束率を開発し、これをインスタンス依存境界と呼ぶ。
さらに、$L$は緩和されたリプシッツ定数を表し、ガウス混合モデルの場合、成分の数と対数的にしかスケールしない。
論文 参考訳(メタデータ) (2024-10-17T16:37:33Z) - Inverse Entropic Optimal Transport Solves Semi-supervised Learning via Data Likelihood Maximization [65.8915778873691]
条件分布は機械学習の中心的な問題です
ペアデータとペアデータの両方を統合する新しいパラダイムを提案する。
提案手法は任意の誤差で理論上真の条件分布を復元可能であることを示す。
論文 参考訳(メタデータ) (2024-10-03T16:12:59Z) - TIC-TAC: A Framework for Improved Covariance Estimation in Deep Heteroscedastic Regression [109.69084997173196]
奥行き回帰は、予測分布の平均と共分散を負の対数類似度を用いて共同最適化する。
近年の研究では, 共分散推定に伴う課題により, 準最適収束が生じる可能性が示唆されている。
1)予測共分散は予測平均のランダム性を真に捉えているか?
その結果, TICは共分散を正確に学習するだけでなく, 負の対数類似性の収束性の向上も促進することがわかった。
論文 参考訳(メタデータ) (2023-10-29T09:54:03Z) - Out-Of-Domain Unlabeled Data Improves Generalization [0.7589678255312519]
本稿では,ラベルなしデータを半教師付き分類問題に組み込む新しい枠組みを提案する。
ラベルのないサンプルは一般化ギャップを狭めるために利用できることを示す。
我々は、さまざまな合成および実世界のデータセットで実施された実験を通じて、我々の主張を検証する。
論文 参考訳(メタデータ) (2023-09-29T02:00:03Z) - Towards Faster Non-Asymptotic Convergence for Diffusion-Based Generative
Models [49.81937966106691]
我々は拡散モデルのデータ生成過程を理解するための非漸近理論のスイートを開発する。
従来の研究とは対照的に,本理論は基本的だが多目的な非漸近的アプローチに基づいて開発されている。
論文 参考訳(メタデータ) (2023-06-15T16:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。