論文の概要: Deep Learning for Two-Stage Robust Integer Optimization
- arxiv url: http://arxiv.org/abs/2310.04345v3
- Date: Fri, 01 Nov 2024 19:36:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:41:41.958631
- Title: Deep Learning for Two-Stage Robust Integer Optimization
- Title(参考訳): 2段階ロバスト整数最適化のためのディープラーニング
- Authors: Justin Dumouchelle, Esther Julien, Jannis Kurtz, Elias B. Khalil,
- Abstract要約: カラム・アンド・制約生成アルゴリズムの深層学習型インスタンス化であるNeur2ROを提案する。
カスタム設計のニューラルネットワークは、第2ステージ問題の最適値と実現可能性を評価するために訓練される。
Neur2ROは高品質なソリューションを迅速に製造し、2段階のクナップサックにおける最先端の手法、資本予算、施設配置問題に優れる。
- 参考スコア(独自算出の注目度): 15.876446950057389
- License:
- Abstract: Robust optimization is an established framework for modeling optimization problems with uncertain parameters. While static robust optimization is often criticized for being too conservative, two-stage (or adjustable) robust optimization (2RO) provides a less conservative alternative by allowing some decisions to be made after the uncertain parameters have been revealed. Unfortunately, in the case of integer decision variables, existing solution methods for 2RO typically fail to solve large-scale instances, limiting the applicability of this modeling paradigm to simple cases. We propose Neur2RO, a deep-learning-augmented instantiation of the column-and-constraint-generation (CCG) algorithm, which expands the applicability of the 2RO framework to large-scale instances with integer decisions in both stages. A custom-designed neural network is trained to estimate the optimal value and feasibility of the second-stage problem. The network can be incorporated into CCG, leading to more computationally tractable subproblems in each of its iterations. The resulting algorithm enjoys approximation guarantees which depend on the neural network's prediction error. In our experiments, Neur2RO produces high-quality solutions quickly, outperforming state-of-the-art methods on two-stage knapsack, capital budgeting, and facility location problems. Compared to existing methods, which often run for hours, Neur2RO finds better solutions in a few seconds or minutes. Our code is available at https://github.com/khalil-research/Neur2RO.
- Abstract(参考訳): ロバスト最適化は、不確実なパラメータで最適化問題をモデル化するための確立されたフレームワークである。
静的ロバスト最適化は保守的すぎるとしばしば批判されるが、2段階(または調整可能な)ロバスト最適化(英語版)(2RO)は不確実なパラメータが明らかにされた後にいくつかの決定を下すことによって、より保守的な代替手段を提供する。
残念なことに、整数決定変数の場合、2ROの既存の解法は通常大規模インスタンスの解決に失敗し、このモデリングパラダイムの適用性は単純なケースに限られる。
本研究では,カラム・アンド・制約生成(CCG)アルゴリズムの深層学習によるインスタンス化であるNeur2ROを提案する。
カスタム設計のニューラルネットワークは、第2ステージ問題の最適値と実現可能性を評価するために訓練される。
このネットワークはCCGに組み込むことができ、各イテレーションにおいてより計算量の多いサブプロブレムが得られる。
結果のアルゴリズムは、ニューラルネットワークの予測エラーに依存する近似を保証する。
我々の実験では、Neur2ROは、2段階のknapsackにおける最先端の手法、資本予算、施設立地問題に優れた高品質のソリューションを迅速に生成する。
従来の方法と比較すると、Neur2ROは数秒から数分でより良いソリューションを見つける。
私たちのコードはhttps://github.com/khalil-research/Neur2ROで公開されています。
関連論文リスト
- Self-Supervised Learning of Iterative Solvers for Constrained Optimization [0.0]
制約付き最適化のための学習型反復解法を提案する。
解法を特定のパラメトリック最適化問題にカスタマイズすることで、非常に高速で正確な解を得ることができる。
最適性のKarush-Kuhn-Tucker条件に基づく新しい損失関数を導入し、両ニューラルネットワークの完全な自己教師付きトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-09-12T14:17:23Z) - RIGA: A Regret-Based Interactive Genetic Algorithm [14.388696798649658]
そこで本研究では,多目的最適化問題を優先的精度で解くための対話型遺伝的アルゴリズムを提案する。
我々のアルゴリズムはRIGAと呼ばれ、集約関数がパラメータ内で線形であることから、任意の多目的最適化問題に適用できる。
いくつかのパフォーマンス指標(計算時間、最適性とクエリ数のギャップ)に対して、RIGAは最先端のアルゴリズムよりも優れた結果を得る。
論文 参考訳(メタデータ) (2023-11-10T13:56:15Z) - A Machine Learning Approach to Two-Stage Adaptive Robust Optimization [6.943816076962257]
本稿では,2段階線形適応ロバスト最適化問題の解法として,機械学習に基づくアプローチを提案する。
私たちは、最適な今と現在の決定、最適な今と現在の決定に関連する最悪のシナリオ、そして最適な待ちと見る決定をエンコードします。
私たちは、現在と現在の決定のための高品質な戦略、最適な今と現在の決定に関連する最悪のシナリオ、待機と見る決定を予測できる機械学習モデルをトレーニングします。
論文 参考訳(メタデータ) (2023-07-23T19:23:06Z) - Learning To Dive In Branch And Bound [95.13209326119153]
グラフニューラルネットワークを用いて特定の潜水構造を学習するためのL2Diveを提案する。
我々は、変数の割り当てを予測するために生成モデルを訓練し、線形プログラムの双対性を利用して潜水決定を行う。
論文 参考訳(メタデータ) (2023-01-24T12:01:45Z) - Neur2SP: Neural Two-Stage Stochastic Programming [3.5417030119735045]
我々はニューラルネットワークを介して期待値関数を近似する新しい方法Neur2SPを開発した。
Neur2SPはすべての問題に対して1.66秒未満で、シナリオの数が増えても高品質なソリューションを実現する。
論文 参考訳(メタデータ) (2022-05-20T22:09:22Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Slowly Varying Regression under Sparsity [5.22980614912553]
本稿では, 緩やかな過度回帰の枠組みを提示し, 回帰モデルが緩やかかつスパースな変動を示すようにした。
本稿では,バイナリ凸アルゴリズムとして再構成する手法を提案する。
結果として得られたモデルは、様々なデータセット間で競合する定式化よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-22T04:51:44Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - A Two-Timescale Framework for Bilevel Optimization: Complexity Analysis
and Application to Actor-Critic [142.1492359556374]
双レベル最適化は、2レベル構造を示す問題のクラスである。
このような二段階問題に対処するための2段階近似(TTSA)アルゴリズムを提案する。
本稿では,TTSAフレームワークの特殊な事例として,2段階の自然なアクター・クリティカルポリシー最適化アルゴリズムが有用であることを示す。
論文 参考訳(メタデータ) (2020-07-10T05:20:02Z) - An Online Method for A Class of Distributionally Robust Optimization
with Non-Convex Objectives [54.29001037565384]
本稿では,オンライン分散ロバスト最適化(DRO)のクラスを解決するための実用的なオンライン手法を提案する。
本研究は,ネットワークの堅牢性向上のための機械学習における重要な応用を実証する。
論文 参考訳(メタデータ) (2020-06-17T20:19:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。