論文の概要: Maximum Optimality Margin: A Unified Approach for Contextual Linear
Programming and Inverse Linear Programming
- arxiv url: http://arxiv.org/abs/2301.11260v1
- Date: Thu, 26 Jan 2023 17:53:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 13:08:59.518938
- Title: Maximum Optimality Margin: A Unified Approach for Contextual Linear
Programming and Inverse Linear Programming
- Title(参考訳): 最大最適性マージン:文脈線形計画法と逆線形計画法の統一的アプローチ
- Authors: Chunlin Sun, Shang Liu, Xiaocheng Li
- Abstract要約: 我々は、下流最適化の最適条件によって機械学習損失関数が機能する最大最適マージンと呼ばれる問題に対する新しいアプローチを開発する。
- 参考スコア(独自算出の注目度): 10.06803520598035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the predict-then-optimize problem where the output of
a machine learning prediction task is used as the input of some downstream
optimization problem, say, the objective coefficient vector of a linear
program. The problem is also known as predictive analytics or contextual linear
programming. The existing approaches largely suffer from either (i)
optimization intractability (a non-convex objective function)/statistical
inefficiency (a suboptimal generalization bound) or (ii) requiring strong
condition(s) such as no constraint or loss calibration. We develop a new
approach to the problem called \textit{maximum optimality margin} which designs
the machine learning loss function by the optimality condition of the
downstream optimization. The max-margin formulation enjoys both computational
efficiency and good theoretical properties for the learning procedure. More
importantly, our new approach only needs the observations of the optimal
solution in the training data rather than the objective function, which makes
it a new and natural approach to the inverse linear programming problem under
both contextual and context-free settings; we also analyze the proposed method
under both offline and online settings, and demonstrate its performance using
numerical experiments.
- Abstract(参考訳): 本稿では,機械学習予測タスクの出力を下流最適化問題,例えば線形プログラムの客観的係数ベクトルの入力として使用する予測列最適化問題について検討する。
この問題は予測分析や文脈線形プログラミングとしても知られている。
既存のアプローチは、ほとんどどちらかに苦しむ
(i)最適化難解性(非凸目的関数)/統計的非効率性(準最適一般化境界)、又は
(ii)制約や損失校正がないなどの強い条件を必要とすること。
我々は、下流最適化の最適条件により機械学習損失関数を設計する「textit{maximum optimality margin}」と呼ばれる問題に対する新しいアプローチを開発する。
max-marginの定式化は、計算効率と学習手順の良質な理論特性の両方を享受する。
さらに,本手法では,目的関数ではなく,学習データにおける最適解の観測しか必要とせず,文脈的・文脈的・文脈的両条件下での逆線形プログラミング問題に対する新たな自然なアプローチとして,オフライン・オンライン両方の設定で提案手法を解析し,数値実験を用いてその性能を実証する。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Operator SVD with Neural Networks via Nested Low-Rank Approximation [19.562492156734653]
本稿では, トラッピング特異値分解の低ランク近似に基づく新しい最適化フレームワークを提案する。
最上位の$L$特異値と特異関数を正しい順序で学習するためのエンフェンシングと呼ばれる新しい手法。
本稿では,計算物理学と機械学習のユースケースに対する提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-02-06T03:06:06Z) - CaVE: A Cone-Aligned Approach for Fast Predict-then-optimize with Binary Linear Programs [23.00554768496448]
本研究はバイナリ線形プログラム(BLP)に焦点をあて,予測最適化のための新たなエンドツーエンドトレーニング手法を提案する。
コーン整列ベクトル推定法 (CaVE) は, 予測コストベクトルをトレーニングインスタンスの真の最適解に対応する正規コーンと整列する。
論文 参考訳(メタデータ) (2023-12-12T20:24:19Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Integrated Optimization of Predictive and Prescriptive Tasks [0.0]
予測タスクを記述タスクとして直接統合する新しいフレームワークを提案する。
予測アルゴリズムのパラメータを2レベル最適化技術により、処方問題内でトレーニングします。
論文 参考訳(メタデータ) (2021-01-02T02:43:10Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。