論文の概要: Interior Point Solving for LP-based prediction+optimisation
- arxiv url: http://arxiv.org/abs/2010.13943v1
- Date: Mon, 26 Oct 2020 23:05:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 17:45:46.722607
- Title: Interior Point Solving for LP-based prediction+optimisation
- Title(参考訳): LPに基づく予測+最適化のための内部点解法
- Authors: Jayanta Mandi, Tias Guns
- Abstract要約: 線形プログラミングのインテリア・ポイント・ソルバで広く使われているような、より原理化された対数障壁項の使用について検討する。
我々の手法は、Willerらの最先端QPTL(Quadratic Programming Task Los)とElmachtoubとGrigasのSPOアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 14.028706088791473
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving optimization problems is the key to decision making in many real-life
analytics applications. However, the coefficients of the optimization problems
are often uncertain and dependent on external factors, such as future demand or
energy or stock prices. Machine learning (ML) models, especially neural
networks, are increasingly being used to estimate these coefficients in a
data-driven way. Hence, end-to-end predict-and-optimize approaches, which
consider how effective the predicted values are to solve the optimization
problem, have received increasing attention. In case of integer linear
programming problems, a popular approach to overcome their non-differentiabilty
is to add a quadratic penalty term to the continuous relaxation, such that
results from differentiating over quadratic programs can be used. Instead we
investigate the use of the more principled logarithmic barrier term, as widely
used in interior point solvers for linear programming. Specifically, instead of
differentiating the KKT conditions, we consider the homogeneous self-dual
formulation of the LP and we show the relation between the interior point step
direction and corresponding gradients needed for learning. Finally our
empirical experiments demonstrate our approach performs as good as if not
better than the state-of-the-art QPTL (Quadratic Programming task loss)
formulation of Wilder et al. and SPO approach of Elmachtoub and Grigas.
- Abstract(参考訳): 多くの実生活分析アプリケーションにおいて、最適化問題の解決が意思決定の鍵となる。
しかし、最適化問題の係数はしばしば不確実であり、将来の需要やエネルギー、株価といった外部要因に依存している。
機械学習(ML)モデル、特にニューラルネットワークは、これらの係数をデータ駆動方式で推定するためにますます利用されている。
したがって、予測値が最適化問題の解決にどの程度効果的かを考えるエンドツーエンドの予測・最適化アプローチが注目されている。
整数線型プログラミング問題の場合、その非微分確率を克服するための一般的なアプローチは、二次的プログラムに対する微分の結果が用いられるように、連続緩和に二次的ペナルティ項を加えることである。
代わりに、線形プログラミングのインテリアポイントソルバで広く使われているように、より原理化された対数障壁項の使用について検討する。
具体的には、kkt条件を微分する代わりに、lpの均質な自己双対な定式化を考え、学習に必要な内点ステップ方向と対応する勾配との関係を示す。
最後に,本手法はwilder et al.の定式化やelmachtoubとgrigasのspoアプローチと同様に,最先端のqptl(quadratic programming task loss)と同等の性能を発揮することを実証した。
関連論文リスト
- Smart Predict-then-Optimize Method with Dependent Data: Risk Bounds and Calibration of Autoregression [7.369846475695131]
本稿では,決定段階における最適化問題を直接対象とする自己回帰型SPO手法を提案する。
我々は, 絶対損失と最小二乗損失と比較して, SPO+サロゲートの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-11-19T17:02:04Z) - Forecasting Outside the Box: Application-Driven Optimal Pointwise Forecasts for Stochastic Optimization [0.0]
本稿では,未知の状況の最適近似を導出する統合学習と最適化手法を提案する。
文献の在庫問題と実データを用いた自転車共有問題から得られた数値結果から,提案手法が有効であることを示す。
論文 参考訳(メタデータ) (2024-11-05T21:54:50Z) - Differentially Private Optimization with Sparse Gradients [60.853074897282625]
微分プライベート(DP)最適化問題を個人勾配の空間性の下で検討する。
これに基づいて、スパース勾配の凸最適化にほぼ最適な速度で純粋および近似DPアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-04-16T20:01:10Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Maximum Optimality Margin: A Unified Approach for Contextual Linear
Programming and Inverse Linear Programming [10.06803520598035]
我々は、下流最適化の最適条件によって機械学習損失関数が機能する最大最適マージンと呼ばれる問題に対する新しいアプローチを開発する。
論文 参考訳(メタデータ) (2023-01-26T17:53:38Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Efficient Learning of Decision-Making Models: A Penalty Block Coordinate
Descent Algorithm for Data-Driven Inverse Optimization [12.610576072466895]
我々は、意思決定プロセスを明らかにするために、事前の意思決定データを使用する逆問題を考える。
この統計的学習問題は、データ駆動逆最適化と呼ばれる。
そこで本稿では,大規模問題を解くために,効率的なブロック座標降下に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:52:56Z) - Generalizing Bayesian Optimization with Decision-theoretic Entropies [102.82152945324381]
統計的決定論の研究からシャノンエントロピーの一般化を考える。
まず,このエントロピーの特殊なケースがBO手順でよく用いられる獲得関数に繋がることを示す。
次に、損失に対する選択肢の選択が、どのようにして柔軟な獲得関数の族をもたらすかを示す。
論文 参考訳(メタデータ) (2022-10-04T04:43:58Z) - Data-Driven Influence Functions for Optimization-Based Causal Inference [105.5385525290466]
統計的汎関数に対するガトー微分を有限差分法で近似する構成的アルゴリズムについて検討する。
本研究では,確率分布を事前知識がないが,データから推定する必要がある場合について検討する。
論文 参考訳(メタデータ) (2022-08-29T16:16:22Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z) - Consistent Second-Order Conic Integer Programming for Learning Bayesian
Networks [2.7473982588529653]
連続観測データからBNのスパースDAG構造を学習する問題について検討する。
この数学的プログラムの最適解は、ある条件下では望ましい統計的性質を持つことが知られている。
ほぼ最適解を得るために, 分岐・結合プロセスの終了に向け, 早期停止条件を提案する。
論文 参考訳(メタデータ) (2020-05-29T00:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。