論文の概要: Iterative Sampling Methods for Sinkhorn Distributionally Robust Optimization
- arxiv url: http://arxiv.org/abs/2512.12550v1
- Date: Sun, 14 Dec 2025 04:42:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.309064
- Title: Iterative Sampling Methods for Sinkhorn Distributionally Robust Optimization
- Title(参考訳): シンクホーン分布ロバスト最適化のための反復サンプリング法
- Authors: Jie Wang,
- Abstract要約: 分散ロバスト最適化(DRO)は、不確実性の下での信頼性の高い意思決定のための強力なパラダイムとして登場した。
本稿では, エントロピー-正則化ワッサーシュタイン距離というシンクホーン差分によって定義される曖昧性集合を持つDROに焦点を当てる。
我々は、シンクホーン DRO を原始的な視点から研究し、確率空間上の無限次元の下層部分プロブレムを持つ双レベルプログラムとして再構成する。
- 参考スコア(独自算出の注目度): 2.345146665577353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributionally robust optimization (DRO) has emerged as a powerful paradigm for reliable decision-making under uncertainty. This paper focuses on DRO with ambiguity sets defined via the Sinkhorn discrepancy: an entropy-regularized Wasserstein distance, referred to as Sinkhorn DRO. Existing work primarily addresses Sinkhorn DRO from a dual perspective, leveraging its formulation as a conditional stochastic optimization problem, for which many stochastic gradient methods are applicable. However, the theoretical analyses of such methods often rely on the boundedness of the loss function, and it is indirect to obtain the worst-case distribution associated with Sinkhorn DRO. In contrast, we study Sinkhorn DRO from the primal perspective, by reformulating it as a bilevel program with several infinite-dimensional lower-level subproblems over probability space. This formulation enables us to simultaneously obtain the optimal robust decision and the worst-case distribution, which is valuable in practical settings, such as generating stress-test scenarios or designing robust learning algorithms. We propose both double-loop and single-loop sampling-based algorithms with theoretical guarantees to solve this bilevel program. Finally, we demonstrate the effectiveness of our approach through a numerical study on adversarial classification.
- Abstract(参考訳): 分散ロバスト最適化(DRO)は、不確実性の下での信頼性の高い意思決定のための強力なパラダイムとして登場した。
本稿では、シンクホルン差分によって定義される曖昧性集合を持つDRO、すなわちエントロピー規則化ワッサーシュタイン距離(シンクホルンDRO)に焦点を当てる。
既存の研究は主に双対的な視点からシンクホーンDROに対処し、その定式化を条件付き確率的最適化問題として利用し、多くの確率的勾配法が適用できる。
しかし、そのような方法の理論解析はしばしば損失関数の有界性に依存し、シンクホーンDROに付随する最悪のケース分布を得るのは間接的である。
対照的に、シンクホーン DRO は原始的な観点から、確率空間上のいくつかの無限次元下層部分プロブレムを持つ双レベルプログラムとして再構成することで研究する。
この定式化により、ストレステストシナリオの生成やロバスト学習アルゴリズムの設計など、実践的に有用な最適なロバスト決定と最悪のケース分布を同時に得ることができる。
本稿では,この二レベルプログラムを理論的に保証した二重ループと単ループサンプリングに基づくアルゴリズムを提案する。
最後に,逆数分類の数値的研究を通じて,本手法の有効性を実証する。
関連論文リスト
- Nested Stochastic Algorithm for Generalized Sinkhorn distance-Regularized Distributionally Robust Optimization [4.989068568135242]
分散ロバストシフト最適化(DRO)は、データ分散に対するロバストモデルのための強力な手法である。
本稿では、一般化近似関数によって不確実性をモデル化した正規化非DRO問題の解決を目的とする。
論文 参考訳(メタデータ) (2025-03-29T01:01:02Z) - Drago: Primal-Dual Coupled Variance Reduction for Faster Distributionally Robust Optimization [12.311794669976047]
本稿では、周期的およびランダム化されたコンポーネントと慎重に正規化された一次更新を組み合わせ、二重分散の低減を実現するプリミティブ・デュアルアルゴリズムであるDragoを提案する。
その設計のため、Dragoは、厳密な凸強凹DRO問題に対する最先端の線形収束率と、原始条件数と双対条件数へのきめ細かい依存を享受している。
論文 参考訳(メタデータ) (2024-03-16T02:06:14Z) - A Near-Optimal Single-Loop Stochastic Algorithm for Convex Finite-Sum Coupled Compositional Optimization [53.14532968909759]
ALEXRと呼ばれる,効率的な単ループプリマル・デュアルブロック座標アルゴリズムを提案する。
本研究では, ALEXR の凸面および強凸面の収束速度を滑らか性および非滑らか性条件下で確立する。
CFCCO の ROC 曲線の下での GDRO および部分領域の実験結果から,提案アルゴリズムの有望な性能を示す。
論文 参考訳(メタデータ) (2023-12-04T19:00:07Z) - Distributionally Robust Bayesian Optimization with $\varphi$-divergences [45.48814080654241]
我々は,$varphi$-divergencesにおけるデータシフトに対するロバスト性について考察する。
この設定におけるDRO-BO問題は有限次元最適化問題と等価であり、連続的な文脈でも証明可能な部分線型後悔境界で容易に実装できることを示す。
論文 参考訳(メタデータ) (2022-03-04T04:34:52Z) - Sinkhorn Distributionally Robust Optimization [18.46110328123008]
シンクホーン距離はエントロピー正則化に基づくワッサーシュタイン距離の変種である。
一般名詞分布,輸送コスト,損失関数に対する凸プログラミング二重再構成を導出する。
論文 参考訳(メタデータ) (2021-09-24T12:40:48Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Distributionally Robust Bayesian Optimization [121.71766171427433]
そこで本研究では,ゼロ次雑音最適化のための分散ロバストなベイズ最適化アルゴリズム(DRBO)を提案する。
提案アルゴリズムは, 種々の設定において, 線形に頑健な後悔を確実に得る。
提案手法は, 実世界のベンチマークと実世界のベンチマークの両方において, 頑健な性能を示す。
論文 参考訳(メタデータ) (2020-02-20T22:04:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。