論文の概要: Data-Driven Robust Optimization using Unsupervised Deep Learning
- arxiv url: http://arxiv.org/abs/2011.09769v3
- Date: Thu, 9 Sep 2021 11:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 21:54:14.001570
- Title: Data-Driven Robust Optimization using Unsupervised Deep Learning
- Title(参考訳): 教師なしディープラーニングを用いたデータ駆動ロバスト最適化
- Authors: Marc Goerigk and Jannis Kurtz
- Abstract要約: 逆問題に対して凸混合整数プログラムとして定式化することにより、トレーニングされたニューラルネットワークをロバストな最適化モデルに統合できることを示す。
このアプローチは、カーネルベースのサポートベクターセットを用いて、同様のアプローチより優れていることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust optimization has been established as a leading methodology to approach
decision problems under uncertainty. To derive a robust optimization model, a
central ingredient is to identify a suitable model for uncertainty, which is
called the uncertainty set. An ongoing challenge in the recent literature is to
derive uncertainty sets from given historical data that result in solutions
that are robust regarding future scenarios. In this paper we use an
unsupervised deep learning method to learn and extract hidden structures from
data, leading to non-convex uncertainty sets and better robust solutions. We
prove that most of the classical uncertainty classes are special cases of our
derived sets and that optimizing over them is strongly NP-hard. Nevertheless,
we show that the trained neural networks can be integrated into a robust
optimization model by formulating the adversarial problem as a convex quadratic
mixed-integer program. This allows us to derive robust solutions through an
iterative scenario generation process. In our computational experiments, we
compare this approach to a similar approach using kernel-based support vector
clustering. We find that uncertainty sets derived by the unsupervised deep
learning method find a better description of data and lead to robust solutions
that outperform the comparison method both with respect to objective value and
feasibility.
- Abstract(参考訳): 不確実性の下で決定問題にアプローチする主要な手法としてロバスト最適化が確立されている。
強固な最適化モデルを引き出すためには、不確実性に対する適切なモデルを特定することが中心となる。
最近の文献における現在進行中の課題は、将来のシナリオにロバストな解決策をもたらす、与えられた履歴データから不確実性集合を導出することである。
本稿では,教師なしのディープラーニング手法を用いてデータから隠れた構造を学習し抽出し,非凸不確実性集合とより頑健な解を導出する。
古典不確かさクラスのほとんどは導出集合の特別な場合であり、それらに対する最適化はnp-hardである。
それにもかかわらず、トレーニングされたニューラルネットワークは、凸2次混合整数プログラムとして対数問題を定式化することにより、堅牢な最適化モデルに統合できることを示す。
これにより、反復的なシナリオ生成プロセスを通じてロバストなソリューションを導出できます。
計算実験では、このアプローチをカーネルベースのサポートベクタークラスタリングを用いた同様のアプローチと比較する。
教師なし深層学習法によって導かれた不確実性集合は,データの記述が良好で,客観的値と実現可能性の両方において比較法に勝るロバストな解となる。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - On Uncertainty Calibration and Selective Generation in Probabilistic
Neural Summarization: A Benchmark Study [14.041071717005362]
要約のための最新のディープモデルは、優れたベンチマーク性能を得るが、誤校正された予測の不確実性を生成する傾向にある。
これは、低品質の予測に高い信頼性を割り当て、現実世界のアプリケーションにおける信頼性と信頼性を損なうことを意味する。
確率的深層学習法は誤校正問題の一般的な解法であるが, 複雑な自己回帰的要約タスクにおける相対的有効性はよく理解されていない。
論文 参考訳(メタデータ) (2023-04-17T23:06:28Z) - Efficient Learning of Decision-Making Models: A Penalty Block Coordinate
Descent Algorithm for Data-Driven Inverse Optimization [12.610576072466895]
我々は、意思決定プロセスを明らかにするために、事前の意思決定データを使用する逆問題を考える。
この統計的学習問題は、データ駆動逆最適化と呼ばれる。
そこで本稿では,大規模問題を解くために,効率的なブロック座標降下に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:52:56Z) - Deep Active Learning with Noise Stability [24.54974925491753]
ラベルのないデータの不確実性推定は、アクティブな学習に不可欠である。
本稿では,雑音の安定性を利用して不確実性を推定する新しいアルゴリズムを提案する。
本手法はコンピュータビジョン,自然言語処理,構造データ解析など,様々なタスクに適用可能である。
論文 参考訳(メタデータ) (2022-05-26T13:21:01Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - A Stochastic Subgradient Method for Distributionally Robust Non-Convex
Learning [2.007262412327553]
堅牢性は、基礎となるデータ分布の不確実性に関するものです。
本手法は摂動条件を満たすことに収束することを示す。
また、実際のデータセット上でのアルゴリズムの性能についても解説する。
論文 参考訳(メタデータ) (2020-06-08T18:52:40Z) - Efficient Ensemble Model Generation for Uncertainty Estimation with
Bayesian Approximation in Segmentation [74.06904875527556]
アンサンブルセグメンテーションモデルを構築するための汎用的で効率的なセグメンテーションフレームワークを提案する。
提案手法では,層選択法を用いて効率よくアンサンブルモデルを生成することができる。
また,新たな画素単位の不確実性損失を考案し,予測性能を向上する。
論文 参考訳(メタデータ) (2020-05-21T16:08:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。