論文の概要: Branch & Learn with Post-hoc Correction for Predict+Optimize with
Unknown Parameters in Constraints
- arxiv url: http://arxiv.org/abs/2303.06698v1
- Date: Sun, 12 Mar 2023 16:23:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 17:17:06.514584
- Title: Branch & Learn with Post-hoc Correction for Predict+Optimize with
Unknown Parameters in Constraints
- Title(参考訳): 制約の未知パラメータによる予測+最適化のためのポストホック補正による分岐学習
- Authors: Xinyi Hu, Jasper C.H. Lee, Jimmy H.M. Lee
- Abstract要約: ポストホックレグレ(Post-hoc Regret)は、不満足な予測を修正するコストを考慮した損失関数である。
簡単な条件を満たす再帰アルゴリズムにより解ける任意の最適化問題に対して,ポストホックレギュレットを正確に計算する方法を示す。
- 参考スコア(独自算出の注目度): 5.762370982168012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Combining machine learning and constrained optimization, Predict+Optimize
tackles optimization problems containing parameters that are unknown at the
time of solving. Prior works focus on cases with unknowns only in the
objectives. A new framework was recently proposed to cater for unknowns also in
constraints by introducing a loss function, called Post-hoc Regret, that takes
into account the cost of correcting an unsatisfiable prediction. Since Post-hoc
Regret is non-differentiable, the previous work computes only its
approximation. While the notion of Post-hoc Regret is general, its specific
implementation is applicable to only packing and covering linear programming
problems. In this paper, we first show how to compute Post-hoc Regret exactly
for any optimization problem solvable by a recursive algorithm satisfying
simple conditions. Experimentation demonstrates substantial improvement in the
quality of solutions as compared to the earlier approximation approach.
Furthermore, we show experimentally the empirical behavior of different
combinations of correction and penalty functions used in the Post-hoc Regret of
the same benchmarks. Results provide insights for defining the appropriate
Post-hoc Regret in different application scenarios.
- Abstract(参考訳): 機械学習と制約付き最適化を組み合わせることで、Predict+Optimizeは、解決時に未知のパラメータを含む最適化問題に取り組む。
事前の作業は、目的のみに未知のケースに焦点を当てる。
新たに提案されたフレームワークは,不満足な予測の修正コストを考慮したロス関数であるPost-hoc Regretを導入することで,未知の制約を緩和するものだ。
ポストホックな後悔は微分不可能であるため、以前の仕事はその近似のみを計算する。
Post-hoc Regretの概念は一般的なものであるが、その具体的実装は線形プログラミング問題のみに適用される。
本稿では,簡単な条件を満たす再帰アルゴリズムにより解ける任意の最適化問題に対して,ポストホックレギュレットを正確に計算する方法を示す。
実験は、初期の近似アプローチと比較して、解の質が大幅に向上することを示している。
さらに,同じベンチマークのポストホックな後悔に使用される補正関数とペナルティ関数の異なる組み合わせによる経験的挙動を実験的に示す。
結果は、異なるアプリケーションシナリオで適切なポストホックレグレットを定義するための洞察を提供する。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Principled Preferential Bayesian Optimization [22.269732173306192]
優先ベイズ最適化(BO)の問題について検討する。
一対の候補解よりも優先的なフィードバックしか持たないブラックボックス関数を最適化することを目指している。
この問題を解決するために,効率的な計算手法を用いた楽観的アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-08T02:57:47Z) - Time-Varying Gaussian Process Bandits with Unknown Prior [18.93478528448966]
PE-GP-UCBは時変ベイズ最適化問題を解くことができる。
これは、観測された関数の値が以前のいくつかの値と一致しているという事実に依存している。
論文 参考訳(メタデータ) (2024-02-02T18:52:16Z) - Two-Stage Predict+Optimize for Mixed Integer Linear Programs with
Unknown Parameters in Constraints [16.15084484295732]
我々はEmphTwo-Stage Predict+と呼ばれる新しいEmphsimplerとEmph moreの強力なフレームワークを提供する。
また、全ての混合整数線形プログラムに利用可能なトレーニングアルゴリズムを提供し、フレームワークの適用性を大いに一般化する。
論文 参考訳(メタデータ) (2023-11-14T09:32:02Z) - You Shall Pass: Dealing with the Zero-Gradient Problem in Predict and
Optimize for Convex Optimization [1.98873083514863]
予測と最適化は、機械学習を用いて最適化問題の未知のパラメータを予測する、ますます人気のある意思決定パラダイムである。
そのようなモデルを訓練する上で重要な課題は、パラメータに関する最適化問題の解のヤコビアンの計算である。
ヤコビアンは大きさの可能なヌル空間を持つことができ、したがってトレーニングプロセスが最適下点に留まることが示される。
論文 参考訳(メタデータ) (2023-07-30T19:14:05Z) - Improved Regret for Efficient Online Reinforcement Learning with Linear
Function Approximation [69.0695698566235]
線形関数近似による強化学習と,コスト関数の逆変化について検討した。
本稿では,未知のダイナミクスと帯域幅フィードバックの一般設定に挑戦する,計算効率のよいポリシ最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-30T17:26:39Z) - Minimalistic Predictions to Schedule Jobs with Online Precedence
Constraints [117.8317521974783]
オンライン優先制約による非サーボ的スケジューリングについて検討する。
アルゴリズムは、任意のジョブ依存に偏りがなく、前任者がすべて完了した場合に限り、ジョブについて学習する。
論文 参考訳(メタデータ) (2023-01-30T13:17:15Z) - Predict+Optimize for Packing and Covering LPs with Unknown Parameters in
Constraints [5.762370982168012]
本稿では,予測+設定のための新規かつ実用的な枠組みを提案するが,目的と制約の両方に未知のパラメータを持つ。
本稿では, 補正関数の概念と, 損失関数に付加的なペナルティ項を導入し, 真のパラメータが明らかにされた後, 推定された最適解を実現可能な解に変換する現実的なシナリオをモデル化する。
私たちのアプローチは、マンディとガンズの以前の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-09-08T09:28:24Z) - Efficient and Optimal Algorithms for Contextual Dueling Bandits under
Realizability [59.81339109121384]
我々は,学習者が文脈情報を用いて2つの決定を下す連続的な決定設定であるK$コンテキストデュエルバンディット問題について検討するが,一方の判断が他方よりも優れていることを示唆する強調基準に基づくフィードバックのみを観察する。
提案手法は, 最善応答後悔という新たな概念に対して, 最善応答後悔に対する最適後悔率を実現するアルゴリズムである。
論文 参考訳(メタデータ) (2021-11-24T07:14:57Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。