論文の概要: Staying on the Manifold: Geometry-Aware Noise Injection
- arxiv url: http://arxiv.org/abs/2509.20201v1
- Date: Wed, 24 Sep 2025 14:58:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.864191
- Title: Staying on the Manifold: Geometry-Aware Noise Injection
- Title(参考訳): マニフォールドに留まる:幾何学的騒音注入
- Authors: Albert Kjøller Jacobsen, Johanna Marie Gegenfurtner, Georgios Arvanitidis,
- Abstract要約: 学習中の入力の摂動は学習関数の勾配を暗黙的に規則化することを示した。
従来の研究は、データの構造を考慮せずに、入力空間に周囲ノイズを加えることを主に検討していた。
入力空間が居住する低次元多様体を考慮に入れた幾何対応の入力雑音を追加する方法を提案する。
- 参考スコア(独自算出の注目度): 3.897275210728671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: It has been shown that perturbing the input during training implicitly regularises the gradient of the learnt function, leading to smoother models and enhancing generalisation. However, previous research mostly considered the addition of ambient noise in the input space, without considering the underlying structure of the data. In this work, we propose several methods of adding geometry-aware input noise that accounts for the lower dimensional manifold the input space inhabits. We start by projecting ambient Gaussian noise onto the tangent space of the manifold. In a second step, the noise sample is mapped on the manifold via the associated geodesic curve. We also consider Brownian motion noise, which moves in random steps along the manifold. We show that geometry-aware noise leads to improved generalization and robustness to hyperparameter selection on highly curved manifolds, while performing at least as well as training without noise on simpler manifolds. Our proposed framework extends to learned data manifolds.
- Abstract(参考訳): 学習中の入力の摂動は学習関数の勾配を暗黙的に規則化し、より滑らかなモデルと一般化の促進につながることが示されている。
しかし、従来の研究では、データの構造を考慮せずに、入力空間に周囲雑音を加えることを主に検討していた。
本研究では,入力空間が居住する低次元多様体を考慮に入れた幾何対応入力雑音を追加する手法を提案する。
まず、周囲のガウスノイズを多様体の接空間に投影することから始める。
第2のステップでは、ノイズサンプルは、関連する測地線曲線を介して多様体上にマッピングされる。
また、多様体に沿ってランダムなステップで動くブラウン運動雑音についても考察する。
幾何認識ノイズは、高曲線多様体上の超パラメータ選択に対する一般化とロバスト性の向上につながるが、同時に、より単純な多様体上ではノイズを伴わない訓練も行う。
提案するフレームワークは学習データ多様体にまで拡張する。
関連論文リスト
- Spacetime Geometry of Denoising in Diffusion Models [20.644091294762678]
本稿では,情報幾何学の枠組みを用いた拡散モデルに関する新しい視点を示す。
すべての雑音レベルを同時に捉えた雑音サンプルの集合が統計的多様体を形成することを示す。
遷移経路サンプリングにおけるこの幾何学的視点の実用的価値を示す。
論文 参考訳(メタデータ) (2025-05-23T06:16:58Z) - FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Generative Modeling on Manifolds Through Mixture of Riemannian Diffusion Processes [57.396578974401734]
一般多様体上に生成拡散過程を構築するための原理的枠組みを導入する。
従来の拡散モデルの認知的アプローチに従う代わりに、橋梁プロセスの混合を用いて拡散過程を構築する。
混合過程を幾何学的に理解し,データ点への接する方向の重み付け平均としてドリフトを導出する。
論文 参考訳(メタデータ) (2023-10-11T06:04:40Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Diffusion Posterior Sampling for General Noisy Inverse Problems [50.873313752797124]
我々は、後方サンプリングの近似により、雑音(非線形)逆問題に対処するために拡散解法を拡張した。
本手法は,拡散モデルが様々な計測ノイズ統計を組み込むことができることを示す。
論文 参考訳(メタデータ) (2022-09-29T11:12:27Z) - Multiview point cloud registration with anisotropic and space-varying
localization noise [1.5499426028105903]
我々は,高異方性定位雑音で劣化した複数点の雲を登録する問題に対処する。
既存の手法は、空間不変等方性雑音の暗黙の仮定に基づいている。
ノイズハンドリング戦略は,高レベルの異方性雑音に対するロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2022-01-03T15:21:24Z) - LAAT: Locally Aligned Ant Technique for discovering multiple faint low
dimensional structures of varying density [0.0]
多様体学習では、密度がノイズによって示されるものよりもかなり高い場合、背景雑音や構造に近いノイズを除去する解がいくつか示されている。
本稿では,Antコロニー最適化のアイデアに基づいて,雑音の存在下で多様体点を抽出する新しい手法を提案する。
既存のランダムウォーク解とは対照的に、我々の手法は多様体の主方向と局所的に一致した点を捉える。
論文 参考訳(メタデータ) (2020-09-17T14:22:50Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z) - Manifold Fitting under Unbounded Noise [4.54773250519101]
出力多様体は、基底多様体上の射影点の接空間を直接推定することによって構成される。
我々の新しい手法は、推定された多様体と基礎多様体の間の距離の上限という観点から、高い確率で理論収束を与える。
論文 参考訳(メタデータ) (2019-09-23T08:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。