論文の概要: Overfitting in Adaptive Robust Optimization
- arxiv url: http://arxiv.org/abs/2509.16451v1
- Date: Fri, 19 Sep 2025 22:09:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.798132
- Title: Overfitting in Adaptive Robust Optimization
- Title(参考訳): 適応ロバスト最適化におけるオーバーフィッティング
- Authors: Karl Zhu, Dimitris Bertsimas,
- Abstract要約: より強い確率的保証を与えるため、制約固有の不確実性セットのサイズを割り当てることを提案する。
この見解は、堅牢性と適応性のバランスをとる不確実性セットを設計するための原則化されたアプローチを動機付けている。
- 参考スコア(独自算出の注目度): 4.66948282422762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adaptive robust optimization (ARO) extends static robust optimization by allowing decisions to depend on the realized uncertainty - weakly dominating static solutions within the modeled uncertainty set. However, ARO makes previous constraints that were independent of uncertainty now dependent, making it vulnerable to additional infeasibilities when realizations fall outside the uncertainty set. This phenomenon of adaptive policies being brittle is analogous to overfitting in machine learning. To mitigate against this, we propose assigning constraint-specific uncertainty set sizes, with harder constraints given stronger probabilistic guarantees. Interpreted through the overfitting lens, this acts as regularization: tighter guarantees shrink adaptive coefficients to ensure stability, while looser ones preserve useful flexibility. This view motivates a principled approach to designing uncertainty sets that balances robustness and adaptivity.
- Abstract(参考訳): アダプティブ・ロバスト最適化(Adaptive robust optimization, ARO)は、静的ロバスト最適化を拡張して、決定が実現された不確実性 – モデル化された不確実性セット内の静的ソリューションを弱く支配することを保証する。
しかし、AROは現在不確実性に依存していない以前の制約を定めており、不確実性セットの外にある場合、さらなる不確実性に対して脆弱である。
適応ポリシーの脆さというこの現象は、機械学習における過度な適合と類似している。
これを回避するために、より強い確率的保証を与えられた厳しい制約で制約固有の不確実性セットのサイズを割り当てることを提案する。
より厳密にすることで、安定性を確保するために適応係数の縮小が保証され、よりゆるいものには便利な柔軟性が保たれる。
この見解は、堅牢性と適応性のバランスをとる不確実性セットを設計するための原則化されたアプローチを動機付けている。
関連論文リスト
- Rectified Robust Policy Optimization for Model-Uncertain Constrained Reinforcement Learning without Strong Duality [53.525547349715595]
我々はRectified Robust Policy Optimization (RRPO) と呼ばれる新しいプライマリのみのアルゴリズムを提案する。
RRPOは双対の定式化に頼ることなく、主問題に直接作用する。
我々は、最もよく知られた下界と一致する複雑性を持つ、ほぼ最適な実現可能なポリシーに収束することを示す。
論文 参考訳(メタデータ) (2025-08-24T16:59:38Z) - Adaptive Conformal Inference by Betting [51.272991377903274]
データ生成プロセスについて仮定することなく適応型共形推論の問題を考察する。
適応型共形推論のための既存のアプローチは、オンライン勾配勾配の変種を用いたピンボール損失の最適化に基づいている。
本稿では,パラメータフリーなオンライン凸最適化手法を利用した適応型共形推論手法を提案する。
論文 参考訳(メタデータ) (2024-12-26T18:42:08Z) - End-to-End Conformal Calibration for Optimization Under Uncertainty [32.844953018302874]
本稿では,条件最適化のための不確実性推定を学習するためのエンドツーエンドフレームワークを開発する。
さらに,部分凸ニューラルネットワークを用いた任意の凸不確実性集合の表現を提案する。
我々のアプローチは2段階最適化によって一貫して改善される。
論文 参考訳(メタデータ) (2024-09-30T17:38:27Z) - A Deep Generative Learning Approach for Two-stage Adaptive Robust Optimization [3.124884279860061]
本稿では,2段階適応型ロバスト最適化のための逆生成を行う解アルゴリズムAGROを紹介する。
AGROは、同時に敵対的かつ現実的な高次元の一致を生成する。
我々は、AGROが標準的なカラム・アンド・制約アルゴリズムを最大1.8%のプロダクション・ディストリビューション計画、最大11.6%の電力系統拡張で上回っていることを示す。
論文 参考訳(メタデータ) (2024-09-05T17:42:19Z) - Resilient Constrained Reinforcement Learning [87.4374430686956]
本稿では,複数の制約仕様を事前に特定しない制約付き強化学習(RL)のクラスについて検討する。
報酬訓練目標と制約満足度との間に不明確なトレードオフがあるため、適切な制約仕様を特定することは困難である。
我々は、ポリシーと制約仕様を一緒に検索する新しい制約付きRLアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:28:23Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。