論文の概要: Wasserstein Distributionally Regret Optimization
- arxiv url: http://arxiv.org/abs/2504.10796v1
- Date: Tue, 15 Apr 2025 01:47:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:06:10.364819
- Title: Wasserstein Distributionally Regret Optimization
- Title(参考訳): ワッサーシュタイン分布レグレット最適化
- Authors: Lukas-Benedikt Fiechtner, Jose Blanchet,
- Abstract要約: We provide a systematic analysis of Wasserstein DRRO, paralleling known results for Wasserstein DRO。
滑らかさと規則性条件下では、ワッサーシュタインDRROは経験的リスク最小化(Empirical Risk Minimization:ERM)と1次項に一致することを示す。
2つの1次元凹関数を最大化することにより、後悔を計算できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Distributionally Robust Optimization (DRO) is a popular framework for decision-making under uncertainty, but its adversarial nature can lead to overly conservative solutions. To address this, we study ex-ante Distributionally Robust Regret Optimization (DRRO), focusing on Wasserstein-based ambiguity sets which are popular due to their links to regularization and machine learning. We provide a systematic analysis of Wasserstein DRRO, paralleling known results for Wasserstein DRO. Under smoothness and regularity conditions, we show that Wasserstein DRRO coincides with Empirical Risk Minimization (ERM) up to first-order terms, and exactly so in convex quadratic settings. We revisit the Wasserstein DRRO newsvendor problem, where the loss is the maximum of two linear functions of demand and decision. Extending [25], we show that the regret can be computed by maximizing two one-dimensional concave functions. For more general loss functions involving the maximum of multiple linear terms in multivariate random variables and decision vectors, we prove that computing the regret and thus also the DRRO policy is NP-hard. We then propose a convex relaxation for these more general Wasserstein DRRO problems and demonstrate its strong empirical performance. Finally, we provide an upper bound on the optimality gap of our relaxation and show it improves over recent alternatives.
- Abstract(参考訳): 分散ロバスト最適化(DRO)は不確実性の下での意思決定の一般的なフレームワークであるが、その逆性は過度に保守的な解決につながる可能性がある。
そこで我々は,元Ante Distributionally Robust Regret Optimization (DRRO)について検討し,正規化と機械学習との関係から人気の高いWassersteinに基づく曖昧性集合に着目した。
We provide a systematic analysis of Wasserstein DRRO, paralleling known results for Wasserstein DRO。
滑らかさと規則性条件下では、ワッサーシュタインDRROは経験的リスク最小化(Empirical Risk Minimization, ERM)と1次条件で一致し、凸2次条件で正確に一致することを示す。
本稿では、需要と意思決定の2つの線形関数の損失を最大とするワッサーシュタインDRROニューズベンダー問題を再検討する。
拡張[25]では,2つの1次元凹関数を最大化することにより,後悔を計算できることが示される。
多変量確率変数および決定ベクトルにおける複数の線形項の最大値を含むより一般的な損失関数に対して、後悔を計算し、したがってDRROポリシーもNP-hardであることを示す。
次に、より一般的なワッサーシュタインDRRO問題に対して凸緩和法を提案し、その強い経験的性能を示す。
最後に、緩和の最適性ギャップの上限を提供し、近年の選択肢よりも改善されていることを示す。
関連論文リスト
- Outlier-Robust Wasserstein DRO [19.355450629316486]
分散ロバスト最適化(DRO)は不確実性の存在下でのデータ駆動型意思決定に有効な手法である。
本稿では、幾何学的(ワッサーシュタイン)摂動と非幾何学的(TV)汚染の両面から意思決定を行うための新しいアウトリアローバストWDROフレームワークを提案する。
我々は、トラクタブル凸の再構成と、外乱問題WDROの効率的な計算を可能にする強力な双対性を証明した。
論文 参考訳(メタデータ) (2023-11-09T18:32:00Z) - On Generalization and Regularization via Wasserstein Distributionally Robust Optimization [0.1843404256219181]
Wassersteinの分散ロバスト最適化(DRO)は、オペレーションリサーチと機械学習で注目されている。
一般化境界と正則化同値性は,より広い設定で得られることを示す。
論文 参考訳(メタデータ) (2022-12-12T05:48:07Z) - Wasserstein Distributionally Robust Estimation in High Dimensions:
Performance Analysis and Optimal Hyperparameter Tuning [0.0]
雑音線形測定から未知パラメータを推定するための分布的ロバストな推定フレームワークを提案する。
このような推定器の2乗誤差性能を解析する作業に着目する。
凸凹最適化問題の解法として2乗誤差を復元できることを示す。
論文 参考訳(メタデータ) (2022-06-27T13:02:59Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Wasserstein Distributionally Robust Inverse Multiobjective Optimization [14.366265951396587]
分散ロバストな逆多目的最適化問題(WRO-IMOP)を開発する。
We show that the excess risk of the WRO-IMOP estimator has a sub-linear convergence rate。
合成多目的二次プログラムと実世界のポートフォリオ最適化問題において,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-09-30T10:44:07Z) - Finite-Sample Guarantees for Wasserstein Distributionally Robust
Optimization: Breaking the Curse of Dimensionality [5.888646114353371]
ワッサーシュタインの分布的ロバストな最適化は、ワッサーシュタイン距離におけるデータ摂動に逆らって頑健で一般化可能な解を求めることを目的としている。
既存の一般的な損失関数のパフォーマンス保証は、次元の呪いのために過度に保守的であるか、大きなサンプルの複雑さでしか証明できない。
We developed a non-asymptotic framework for the out-of-sample performance for Wasserstein robust learning and the generalization bound for its related Lipschitz and gradient regularization problem。
論文 参考訳(メタデータ) (2020-09-09T16:02:57Z) - On Projection Robust Optimal Transport: Sample Complexity and Model
Misspecification [101.0377583883137]
射影ロバスト(PR)OTは、2つの測度の間のOTコストを最大化するために、射影可能な$k$次元部分空間を選択する。
私たちの最初の貢献は、PRワッサーシュタイン距離のいくつかの基本的な統計的性質を確立することである。
次に、部分空間を最適化するのではなく平均化することにより、PRW距離の代替として積分PRワッサーシュタイン距離(IPRW)を提案する。
論文 参考訳(メタデータ) (2020-06-22T14:35:33Z) - Projection Robust Wasserstein Distance and Riemannian Optimization [107.93250306339694]
プロジェクション・ソリッドスタイン(PRW)は、ワッサーシュタイン・プロジェクション(WPP)のロバストな変種であることを示す。
本稿では,PRW距離の計算への第一歩として,その理論と実データに関する実験の関連について述べる。
論文 参考訳(メタデータ) (2020-06-12T20:40:22Z) - Stochastic Saddle-Point Optimization for Wasserstein Barycenters [69.68068088508505]
オンラインデータストリームによって生成される有限個の点からなるランダムな確率測度に対する人口推定バリセンタ問題を考察する。
本稿では,この問題の構造を用いて,凸凹型サドル点再構成を行う。
ランダム確率測度の分布が離散的な場合、最適化アルゴリズムを提案し、その複雑性を推定する。
論文 参考訳(メタデータ) (2020-06-11T19:40:38Z) - Approximation Schemes for ReLU Regression [80.33702497406632]
我々はReLU回帰の根本的な問題を考察する。
目的は、未知の分布から引き出された2乗損失に対して、最も適したReLUを出力することである。
論文 参考訳(メタデータ) (2020-05-26T16:26:17Z) - Hardness of Random Optimization Problems for Boolean Circuits,
Low-Degree Polynomials, and Langevin Dynamics [78.46689176407936]
アルゴリズムの族は高い確率でほぼ最適な解を生成できないことを示す。
ブール回路の場合、回路複雑性理論で知られている最先端境界を改善する。
論文 参考訳(メタデータ) (2020-04-25T05:45:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。