論文の概要: CaVE: A Cone-Aligned Approach for Fast Predict-then-optimize with Binary
Linear Programs
- arxiv url: http://arxiv.org/abs/2312.07718v1
- Date: Tue, 12 Dec 2023 20:24:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-14 17:35:11.473776
- Title: CaVE: A Cone-Aligned Approach for Fast Predict-then-optimize with Binary
Linear Programs
- Title(参考訳): CaVE: 2進線形プログラムによる高速予測最適化のためのコーンアラインアプローチ
- Authors: Bo Tang, Elias B. Khalil
- Abstract要約: 本研究はバイナリ線形プログラム(BLP)に焦点をあて,予測列最適化のための新たなエンドツーエンドトレーニング手法を提案する。
コーン整列ベクトル推定法(CaVE)は,予測コストベクトルを,トレーニングインスタンスの真の最適解に対応するコーンと整列する。
- 参考スコア(独自算出の注目度): 27.178007008184053
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The end-to-end predict-then-optimize framework, also known as
decision-focused learning, has gained popularity for its ability to integrate
optimization into the training procedure of machine learning models that
predict the unknown cost (objective function) coefficients of optimization
problems from contextual instance information. Naturally, most of the problems
of interest in this space can be cast as integer linear programs. In this work,
we focus on binary linear programs (BLPs) and propose a new end-to-end training
method for predict-then-optimize. Our method, Cone-aligned Vector Estimation
(CaVE), aligns the predicted cost vectors with the cone corresponding to the
true optimal solution of a training instance. When the predicted cost vector
lies inside the cone, the optimal solution to the linear relaxation of the
binary problem is optimal w.r.t. to the true cost vector. Not only does this
alignment produce decision-aware learning models, but it also dramatically
reduces training time as it circumvents the need to solve BLPs to compute a
loss function with its gradients. Experiments across multiple datasets show
that our method exhibits a favorable trade-off between training time and
solution quality, particularly with large-scale optimization problems such as
vehicle routing, a hard BLP that has yet to benefit from predict-then-optimize
methods in the literature due to its difficulty.
- Abstract(参考訳): エンドツーエンド予測最適化フレームワークは、意思決定中心学習としても知られ、コンテキストインスタンス情報から最適化問題の未知コスト(目的関数)係数を予測する機械学習モデルのトレーニング手順に最適化を統合する能力で人気を集めている。
当然、この空間における関心のある問題の多くは整数線型プログラムとしてキャストできる。
本研究では,バイナリ線形プログラム(BLP)に着目し,予測列最適化のための新たなエンドツーエンドトレーニング手法を提案する。
提案手法であるコーンアラインベクトル推定 (cave) は, 予測したコストベクトルを, トレーニングインスタンスの真の最適解に対応するコーンに整合させる。
予測コストベクトルが円錐内にあるとき、二項問題の線形緩和に対する最適解は真のコストベクトルに最適 w.r.t. である。
このアライメントは、意思決定対応学習モデルを生成するだけでなく、その勾配で損失関数を計算するためにBLPを解く必要性を回避するため、トレーニング時間を劇的に短縮する。
複数のデータセットにまたがる実験により,本手法はトレーニング時間とソリューション品質のトレードオフを良好に示し,特に車両ルーティングなどの大規模最適化問題において,本手法の難しさから,文学における予測最適化手法の恩恵を受けていない。
関連論文リスト
- Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Maximum Optimality Margin: A Unified Approach for Contextual Linear
Programming and Inverse Linear Programming [10.06803520598035]
我々は、下流最適化の最適条件によって機械学習損失関数が機能する最大最適マージンと呼ばれる問題に対する新しいアプローチを開発する。
論文 参考訳(メタデータ) (2023-01-26T17:53:38Z) - Efficient Learning of Decision-Making Models: A Penalty Block Coordinate
Descent Algorithm for Data-Driven Inverse Optimization [12.610576072466895]
我々は、意思決定プロセスを明らかにするために、事前の意思決定データを使用する逆問題を考える。
この統計的学習問題は、データ駆動逆最適化と呼ばれる。
そこで本稿では,大規模問題を解くために,効率的なブロック座標降下に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:52:56Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Contrastive Losses and Solution Caching for Predict-and-Optimize [19.31153168397003]
ノイズコントラスト法を用いて、サロゲート損失関数の族を動機付ける。
すべての予測と最適化アプローチのボトルネックに対処する。
非常に遅い成長率でさえ、最先端の手法の質に合わせるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-11-10T19:09:12Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z) - Decomposition and Adaptive Sampling for Data-Driven Inverse Linear
Optimization [12.610576072466895]
この研究は、線形プログラムの未知のコストベクトルを推論することが目的である逆線形最適化に対処する。
本稿では,既存の手法と比較して,制約の少ない,一般的に許容可能なコスト見積の集合の回復を可能にする,新たな問題の定式化を導入する。
論文 参考訳(メタデータ) (2020-09-16T22:25:31Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。