論文の概要: Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems
- arxiv url: http://arxiv.org/abs/2006.10815v2
- Date: Thu, 22 Oct 2020 05:05:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 13:06:59.477349
- Title: Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems
- Title(参考訳): 最適化問題に対する小型品質対応サロゲートの自動学習
- Authors: Kai Wang, Bryan Wilder, Andrew Perrault, Milind Tambe
- Abstract要約: 未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
- 参考スコア(独自算出の注目度): 55.94450542785096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving optimization problems with unknown parameters often requires learning
a predictive model to predict the values of the unknown parameters and then
solving the problem using these values. Recent work has shown that including
the optimization problem as a layer in the model training pipeline results in
predictions of the unobserved parameters that lead to higher decision quality.
Unfortunately, this process comes at a large computational cost because the
optimization problem must be solved and differentiated through in each training
iteration; furthermore, it may also sometimes fail to improve solution quality
due to non-smoothness issues that arise when training through a complex
optimization layer. To address these shortcomings, we learn a low-dimensional
surrogate model of a large optimization problem by representing the feasible
space in terms of meta-variables, each of which is a linear combination of the
original variables. By training a low-dimensional surrogate model end-to-end,
and jointly with the predictive model, we achieve: i) a large reduction in
training and inference time; and ii) improved performance by focusing attention
on the more important variables in the optimization and learning in a smoother
space. Empirically, we demonstrate these improvements on a non-convex adversary
modeling task, a submodular recommendation task and a convex portfolio
optimization task.
- Abstract(参考訳): 未知パラメータによる最適化問題を解くには、未知パラメータの値を予測するために予測モデルを学び、それらの値を使って問題を解く必要がある。
近年の研究では、モデルトレーニングパイプラインのレイヤーとして最適化問題を含めると、未観測パラメータの予測結果が、より高い意思決定品質につながることが示されている。
残念なことに、このプロセスは、最適化問題は各トレーニングイテレーションで解決され、差別化されなければならないため、大きな計算コストを伴っている。
これらの欠点に対処するために、メタ変数の観点から実現可能な空間を表現して、大きな最適化問題の低次元サロゲートモデルを学習し、それぞれが元の変数の線形結合である。
低次元のサーロゲートモデルをエンドツーエンドに訓練し、予測モデルと共同で達成する。
一 トレーニング及び推論時間を大幅に短縮すること、及び
二 より円滑な空間における最適化及び学習において、より重要な変数に注目して、性能を改善すること。
実験では,非凸逆モデリングタスク,サブモジュールレコメンデーションタスク,凸ポートフォリオ最適化タスクにおいて,これらの改善を実証する。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Data-driven decision-focused surrogate modeling [10.1947610432159]
本稿では,実時間設定における非線形最適化問題の解決を目的とした,意思決定中心の代理モデルの概念を紹介する。
提案したデータ駆動フレームワークは、決定予測エラーを最小限に抑えるためにトレーニングされた、よりシンプルな、例えば凸(convex)、代理最適化モデル(surrogate optimization model)を学ぶことを目指している。
我々は、一般的な非線形化学プロセスの最適化を含む数値実験を通して、我々の枠組みを検証する。
論文 参考訳(メタデータ) (2023-08-23T14:23:26Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Careful! Training Relevance is Real [0.7742297876120561]
我々は、トレーニングの妥当性を強制するために設計された制約を提案する。
提案した制約を加えることで,ソリューションの品質が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-01-12T11:54:31Z) - Bilevel Optimization for Differentially Private Optimization in Energy
Systems [53.806512366696275]
本稿では,入力に敏感な制約付き最適化問題に対して,差分プライバシーを適用する方法について検討する。
本稿は, 自然仮定の下では, 大規模非線形最適化問題に対して, 双レベルモデルを効率的に解けることを示す。
論文 参考訳(メタデータ) (2020-01-26T20:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。