論文の概要: Efficient End-to-End Learning for Decision-Making: A Meta-Optimization Approach
- arxiv url: http://arxiv.org/abs/2505.11360v1
- Date: Fri, 16 May 2025 15:27:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.462689
- Title: Efficient End-to-End Learning for Decision-Making: A Meta-Optimization Approach
- Title(参考訳): 意思決定のための効率的なエンドツーエンド学習:メタ最適化アプローチ
- Authors: Rares Cristian, Pavithra Harsha, Georgia Perakis, Brian Quanz,
- Abstract要約: 本稿では,最適化問題を近似する効率的なアルゴリズムを学習するメタ最適化手法を提案する。
我々は,学習方法の指数収束,近似保証,一般化境界を証明した。
この手法は計算効率に優れ、高品質な近似を高速に生成し、既存の手法と比較して問題の大きさでスケールする。
- 参考スコア(独自算出の注目度): 5.84228364962637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: End-to-end learning has become a widely applicable and studied problem in training predictive ML models to be aware of their impact on downstream decision-making tasks. These end-to-end models often outperform traditional methods that separate training from the optimization and only myopically focus on prediction error. However, the computational complexity of end-to-end frameworks poses a significant challenge, particularly for large-scale problems. While training an ML model using gradient descent, each time we need to compute a gradient we must solve an expensive optimization problem. We present a meta-optimization method that learns efficient algorithms to approximate optimization problems, dramatically reducing computational overhead of solving the decision problem in general, an aspect we leverage in the training within the end-to-end framework. Our approach introduces a neural network architecture that near-optimally solves optimization problems while ensuring feasibility constraints through alternate projections. We prove exponential convergence, approximation guarantees, and generalization bounds for our learning method. This method offers superior computational efficiency, producing high-quality approximations faster and scaling better with problem size compared to existing techniques. Our approach applies to a wide range of optimization problems including deterministic, single-stage as well as two-stage stochastic optimization problems. We illustrate how our proposed method applies to (1) an electricity generation problem using real data from an electricity routing company coordinating the movement of electricity throughout 13 states, (2) a shortest path problem with a computer vision task of predicting edge costs from terrain maps, (3) a two-stage multi-warehouse cross-fulfillment newsvendor problem, as well as a variety of other newsvendor-like problems.
- Abstract(参考訳): エンド・ツー・エンドの学習は、下流の意思決定タスクに対する影響を認識するための予測型MLモデルのトレーニングにおいて、広く適用され、研究されている問題となっている。
これらのエンドツーエンドモデルは、最適化からトレーニングを分離し、ミオプティカルに予測エラーにのみフォーカスする従来の手法よりも優れていることが多い。
しかし、エンドツーエンドフレームワークの計算複雑性は、特に大規模問題において大きな課題となる。
勾配勾配勾配を用いたMLモデルのトレーニングでは、勾配を計算する度に高価な最適化問題を解く必要がある。
本稿では、最適化問題を近似する効率的なアルゴリズムを学習し、決定問題を解く際の計算オーバーヘッドを劇的に削減するメタ最適化手法を提案する。
提案手法では、最適化問題をほぼ最適に解決し、代替射影による実現可能性制約を確実にするニューラルネットワークアーキテクチャを導入する。
我々は,学習方法の指数収束,近似保証,一般化境界を証明した。
この手法は計算効率に優れ、高品質な近似を高速に生成し、既存の手法と比較して問題の大きさでスケールする。
提案手法は, 決定論的, 単段階, および2段階確率最適化問題を含む, 幅広い最適化問題に適用できる。
提案手法は,1)13州にまたがる電力の移動をコーディネートする電力ルーティング会社の実データを用いた発電問題,(2)地形図からエッジコストを予測するコンピュータビジョンタスクにおける最短経路問題,(3)2段階のマルチウェアハウスクロスフルフィルメントニューズベンダー問題,その他様々なニュースベンダライクな問題に対して適用される。
関連論文リスト
- Learning to Optimize for Mixed-Integer Non-linear Programming [20.469394148261838]
混合整数非線形プログラム(MINLP)は、エネルギーシステムや輸送といった様々な領域で発生する。
MINLPは特に大規模な解決が難しいことで知られている。
本稿では,解の積分性を保証するための2つの学習可能な補正層と,解の実現性を改善するための後処理ステップを備えた新しいディープラーニング手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T20:14:39Z) - Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Contrastive Losses and Solution Caching for Predict-and-Optimize [19.31153168397003]
ノイズコントラスト法を用いて、サロゲート損失関数の族を動機付ける。
すべての予測と最適化アプローチのボトルネックに対処する。
非常に遅い成長率でさえ、最先端の手法の質に合わせるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-11-10T19:09:12Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。