論文の概要: Iterative Sampling Methods for Sinkhorn Distributionally Robust Optimization
- arxiv url: http://arxiv.org/abs/2512.12550v1
- Date: Sun, 14 Dec 2025 04:42:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.309064
- Title: Iterative Sampling Methods for Sinkhorn Distributionally Robust Optimization
- Title(参考訳): シンクホーン分布ロバスト最適化のための反復サンプリング法
- Authors: Jie Wang,
- Abstract要約: 分散ロバスト最適化(DRO)は、不確実性の下での信頼性の高い意思決定のための強力なパラダイムとして登場した。
本稿では, エントロピー-正則化ワッサーシュタイン距離というシンクホーン差分によって定義される曖昧性集合を持つDROに焦点を当てる。
我々は、シンクホーン DRO を原始的な視点から研究し、確率空間上の無限次元の下層部分プロブレムを持つ双レベルプログラムとして再構成する。
- 参考スコア(独自算出の注目度): 2.345146665577353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributionally robust optimization (DRO) has emerged as a powerful paradigm for reliable decision-making under uncertainty. This paper focuses on DRO with ambiguity sets defined via the Sinkhorn discrepancy: an entropy-regularized Wasserstein distance, referred to as Sinkhorn DRO. Existing work primarily addresses Sinkhorn DRO from a dual perspective, leveraging its formulation as a conditional stochastic optimization problem, for which many stochastic gradient methods are applicable. However, the theoretical analyses of such methods often rely on the boundedness of the loss function, and it is indirect to obtain the worst-case distribution associated with Sinkhorn DRO. In contrast, we study Sinkhorn DRO from the primal perspective, by reformulating it as a bilevel program with several infinite-dimensional lower-level subproblems over probability space. This formulation enables us to simultaneously obtain the optimal robust decision and the worst-case distribution, which is valuable in practical settings, such as generating stress-test scenarios or designing robust learning algorithms. We propose both double-loop and single-loop sampling-based algorithms with theoretical guarantees to solve this bilevel program. Finally, we demonstrate the effectiveness of our approach through a numerical study on adversarial classification.
- Abstract(参考訳): 分散ロバスト最適化(DRO)は、不確実性の下での信頼性の高い意思決定のための強力なパラダイムとして登場した。
本稿では、シンクホルン差分によって定義される曖昧性集合を持つDRO、すなわちエントロピー規則化ワッサーシュタイン距離(シンクホルンDRO)に焦点を当てる。
既存の研究は主に双対的な視点からシンクホーンDROに対処し、その定式化を条件付き確率的最適化問題として利用し、多くの確率的勾配法が適用できる。
しかし、そのような方法の理論解析はしばしば損失関数の有界性に依存し、シンクホーンDROに付随する最悪のケース分布を得るのは間接的である。
対照的に、シンクホーン DRO は原始的な観点から、確率空間上のいくつかの無限次元下層部分プロブレムを持つ双レベルプログラムとして再構成することで研究する。
この定式化により、ストレステストシナリオの生成やロバスト学習アルゴリズムの設計など、実践的に有用な最適なロバスト決定と最悪のケース分布を同時に得ることができる。
本稿では,この二レベルプログラムを理論的に保証した二重ループと単ループサンプリングに基づくアルゴリズムを提案する。
最後に,逆数分類の数値的研究を通じて,本手法の有効性を実証する。
関連論文リスト
- Contextual Distributionally Robust Optimization with Causal and Continuous Structure: An Interpretable and Tractable Approach [2.8445258546547625]
文脈分布ロバスト最適化(DRO)のためのフレームワークを提案する。
まず, エントロピー規則化因果距離であるSinkhorn discrepancy (CSD) を導入する。
コーサルシンクホーンDRO(Causal-SDRO)と呼ばれる,CSDに基づく曖昧性集合を持つ文脈的DROモデルを導出する。
本稿では,任意の可測関数空間内の最適ポリシを近似するソフトフォレスト回帰(SRF)決定則を提案する。
論文 参考訳(メタデータ) (2026-01-16T06:18:22Z) - Nested Stochastic Algorithm for Generalized Sinkhorn distance-Regularized Distributionally Robust Optimization [4.989068568135242]
分散ロバストシフト最適化(DRO)は、データ分散に対するロバストモデルのための強力な手法である。
本稿では、一般化近似関数によって不確実性をモデル化した正規化非DRO問題の解決を目的とする。
論文 参考訳(メタデータ) (2025-03-29T01:01:02Z) - Learning from Noisy Labels via Conditional Distributionally Robust Optimization [5.85767711644773]
クラウドソーシングは、大規模なデータセットをラベル付けするための実用的なソリューションとして現れました。
これは、様々なレベルの専門知識を持つアノテータからのノイズの多いラベルによって、正確なモデルを学習する上で大きな課題となる。
論文 参考訳(メタデータ) (2024-11-26T05:03:26Z) - Drago: Primal-Dual Coupled Variance Reduction for Faster Distributionally Robust Optimization [12.311794669976047]
本稿では、周期的およびランダム化されたコンポーネントと慎重に正規化された一次更新を組み合わせ、二重分散の低減を実現するプリミティブ・デュアルアルゴリズムであるDragoを提案する。
その設計のため、Dragoは、厳密な凸強凹DRO問題に対する最先端の線形収束率と、原始条件数と双対条件数へのきめ細かい依存を享受している。
論文 参考訳(メタデータ) (2024-03-16T02:06:14Z) - A Near-Optimal Single-Loop Stochastic Algorithm for Convex Finite-Sum Coupled Compositional Optimization [53.14532968909759]
ALEXRと呼ばれる,効率的な単ループプリマル・デュアルブロック座標アルゴリズムを提案する。
本研究では, ALEXR の凸面および強凸面の収束速度を滑らか性および非滑らか性条件下で確立する。
CFCCO の ROC 曲線の下での GDRO および部分領域の実験結果から,提案アルゴリズムの有望な性能を示す。
論文 参考訳(メタデータ) (2023-12-04T19:00:07Z) - Stochastic Constrained DRO with a Complexity Independent of Sample Size [38.56406595022129]
クルバック分散制約DRO問題の解法として,非凸損失と凸損失の両方に適用可能なアルゴリズムを提案し,解析する。
非損失に対する$$$ilon定常解を見つけるのにほぼ最適な複雑さを確立し、広いアプリケーションに最適な解を求めるのに最適なバッチの複雑さを確立します。
論文 参考訳(メタデータ) (2022-10-11T19:11:19Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - Distributionally Robust Bayesian Optimization with $\varphi$-divergences [45.48814080654241]
我々は,$varphi$-divergencesにおけるデータシフトに対するロバスト性について考察する。
この設定におけるDRO-BO問題は有限次元最適化問題と等価であり、連続的な文脈でも証明可能な部分線型後悔境界で容易に実装できることを示す。
論文 参考訳(メタデータ) (2022-03-04T04:34:52Z) - When AUC meets DRO: Optimizing Partial AUC for Deep Learning with
Non-Convex Convergence Guarantee [51.527543027813344]
単方向および二方向部分AUC(pAUC)の系統的および効率的な勾配法を提案する。
一方通行と一方通行の pAUC に対して,2つのアルゴリズムを提案し,それぞれ2つの定式化を最適化するための収束性を証明した。
論文 参考訳(メタデータ) (2022-03-01T01:59:53Z) - Non-convex Distributionally Robust Optimization: Non-asymptotic Analysis [16.499651513178012]
分散ロバスト最適化(DRO)は、分散シフトに対してロバストなモデルを学ぶために広く使われている手法である。
目的関数はおそらく非滑らかであり,正規化勾配降下を有するにもかかわらず,非漸近収束を保証する。
論文 参考訳(メタデータ) (2021-10-24T14:56:38Z) - Sinkhorn Distributionally Robust Optimization [18.46110328123008]
シンクホーン距離はエントロピー正則化に基づくワッサーシュタイン距離の変種である。
一般名詞分布,輸送コスト,損失関数に対する凸プログラミング二重再構成を導出する。
論文 参考訳(メタデータ) (2021-09-24T12:40:48Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Distributionally Robust Bayesian Optimization [121.71766171427433]
そこで本研究では,ゼロ次雑音最適化のための分散ロバストなベイズ最適化アルゴリズム(DRBO)を提案する。
提案アルゴリズムは, 種々の設定において, 線形に頑健な後悔を確実に得る。
提案手法は, 実世界のベンチマークと実世界のベンチマークの両方において, 頑健な性能を示す。
論文 参考訳(メタデータ) (2020-02-20T22:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。