論文の概要: Rate-Optimal Noise Annealing in Semi-Dual Neural Optimal Transport: Tangential Identifiability, Off-Manifold Ambiguity, and Guaranteed Recovery
- arxiv url: http://arxiv.org/abs/2602.04110v1
- Date: Wed, 04 Feb 2026 00:49:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.327009
- Title: Rate-Optimal Noise Annealing in Semi-Dual Neural Optimal Transport: Tangential Identifiability, Off-Manifold Ambiguity, and Guaranteed Recovery
- Title(参考訳): 半二重ニューラルトランスポートにおける速度-最適ノイズアニーリング:タンジェンシャル識別性、オフ・マニフォールドの曖昧性、および保証された回復性
- Authors: Raymond Chu, Jaewoong Choi, Dohyun Kwon,
- Abstract要約: 半二重の神経的最適輸送は、極小の目的によって輸送マップを学習するが、トレーニングは不正または退化マップに収束することができる。
補聴器としての添加音の平滑化について検討し,ノイズが消えるにつれて新たな地図復元の保証を証明した。
- 参考スコア(独自算出の注目度): 12.515121834321633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-dual neural optimal transport learns a transport map via a max-min objective, yet training can converge to incorrect or degenerate maps. We fully characterize these spurious solutions in the common regime where data concentrate on low-dimensional manifold: the objective is underconstrained off the data manifold, while the on-manifold transport signal remains identifiable. Following Choi, Choi, and Kwon (2025), we study additive-noise smoothing as a remedy and prove new map recovery guarantees as the noise vanishes. Our main practical contribution is a computable terminal noise level $\varepsilon_{\mathrm{stat}}(N)$ that attains the optimal statistical rate, with scaling governed by the intrinsic dimension $m$ of the data. The formula arises from a theoretical unified analysis of (i) quantitative stability of optimal plans, (ii) smoothing-induced bias, and (iii) finite-sample error, yielding rates that depend on $m$ rather than the ambient dimension. Finally, we show that the reduced semi-dual objective becomes increasingly ill-conditioned as $\varepsilon \downarrow 0$. This provides a principled stopping rule: annealing below $\varepsilon_{\mathrm{stat}}(N)$ can $\textit{worsen}$ optimization conditioning without improving statistical accuracy.
- Abstract(参考訳): 半二重の神経的最適輸送は、極小の目的によって輸送マップを学習するが、トレーニングは不正または退化マップに収束することができる。
我々は、低次元多様体にデータが集中する共通状態において、これらの急激な解を完全に特徴づける: 目的は、データ多様体から過小制約を受け、一方、オンマンフォールド輸送信号は、依然として識別可能である。
2025年のChoi,Choi,Kwonに続いて,加法ノイズスムース化を治療として研究し,ノイズが消えるにつれて新たなマップ回復の保証を証明した。
我々の主な実用的貢献は計算可能な端末ノイズレベル$\varepsilon_{\mathrm{stat}}(N)$であり、これはデータの内在次元$m$のスケーリングによって、最適な統計速度を達成する。
この公式は理論的な統一的な分析から生じる。
一 最適計画の量的安定性
(二)平滑化による偏見、及び
(iii)有限サンプル誤差は、周囲次元よりも$m$に依存する。
最後に、減少半双対の目的が、$\varepsilon \downarrow 0$としてますます不条件となることを示す。
anealing under $\varepsilon_{\mathrm{stat}}(N)$ can $\textit{worsen}$ optimization conditioning without improve statistics accuracy。
関連論文リスト
- Stochastic Optimization in Semi-Discrete Optimal Transport: Convergence Analysis and Minimax Rate [33.30496814734325]
グラディエント・Descent(SGD)ベースの解法は、最近の機械学習アプリケーションで強い経験的性能を示した。
SGD法は最小収束率$mathcalO (1/sqrtn)$でOTマップを推定できることを示す。
ソース測度がコンパクトにサポートされていなくても、目的の最小値を含む適切な射影集合を同定する。
論文 参考訳(メタデータ) (2025-10-29T08:43:19Z) - Normalizing flows as approximations of optimal transport maps via linear-control neural ODEs [49.1574468325115]
我々は、絶対連続測度$mu,nuinmathcalP(mathbbRn)$間の$Wimat$-optimal transport map Tを線形制御ニューラルネットワークのフローとして回収する問題を考える。
論文 参考訳(メタデータ) (2023-11-02T17:17:03Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - On Kinetic Optimal Probability Paths for Generative Models [42.12806492124782]
近年成功した生成モデルは、ニューラルネットワークを訓練例にノイズを伴って、a-prioriの定義したトラクタブル確率密度パスに適合させることで訓練される。
本稿では,拡散経路を例に含むガウス確率経路の空間を考察し,ある有用な意味での最適成分を求める。
論文 参考訳(メタデータ) (2023-06-11T08:54:12Z) - Achieving the Asymptotically Optimal Sample Complexity of Offline Reinforcement Learning: A DRO-Based Approach [36.88301225561535]
オフライン強化学習は、アクティブな探索なしに、事前に収集されたデータセットから学習することを目的としている。
既存のアプローチでは、不確実性に対する悲観的なスタンスを採用し、探索されていない状態-作用対の報酬を、保守的に値関数を推定する。
分散ロバスト最適化(DRO)に基づくアプローチはこれらの課題にも対処でき、漸近的に最小限の最適化であることを示す。
論文 参考訳(メタデータ) (2023-05-22T17:50:18Z) - Pessimistic Minimax Value Iteration: Provably Efficient Equilibrium
Learning from Offline Datasets [101.5329678997916]
両プレイヤーゼロサムマルコフゲーム(MG)をオフライン環境で研究する。
目標は、事前収集されたデータセットに基づいて、近似的なナッシュ均衡(NE)ポリシーペアを見つけることである。
論文 参考訳(メタデータ) (2022-02-15T15:39:30Z) - Distributed Sparse Regression via Penalization [5.990069843501885]
エージェントのネットワーク上の線形回帰を、(集中ノードを持たない)無向グラフとしてモデル化する。
推定問題は、局所的なLASSO損失関数の和とコンセンサス制約の2次ペナルティの最小化として定式化される。
本稿では, ペナル化問題に適用した近似勾配アルゴリズムが, 集中的な統計的誤差の順序の許容値まで線形に収束することを示す。
論文 参考訳(メタデータ) (2021-11-12T01:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。