論文の概要: Careful! Training Relevance is Real
- arxiv url: http://arxiv.org/abs/2201.04429v1
- Date: Wed, 12 Jan 2022 11:54:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 15:18:53.156953
- Title: Careful! Training Relevance is Real
- Title(参考訳): 気をつけろ!
トレーニングの関連性は本物
- Authors: Chenbo Shi, Mohsen Emadikhiav, Leonardo Lozano, David Bergman
- Abstract要約: 我々は、トレーニングの妥当性を強制するために設計された制約を提案する。
提案した制約を加えることで,ソリューションの品質が大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 0.7742297876120561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a recent proliferation of research on the integration of machine
learning and optimization. One expansive area within this research stream is
predictive-model embedded optimization, which uses pre-trained predictive
models for the objective function of an optimization problem, so that features
of the predictive models become decision variables in the optimization problem.
Despite a recent surge in publications in this area, one aspect of this
decision-making pipeline that has been largely overlooked is training
relevance, i.e., ensuring that solutions to the optimization problem should be
similar to the data used to train the predictive models. In this paper, we
propose constraints designed to enforce training relevance, and show through a
collection of experimental results that adding the suggested constraints
significantly improves the quality of solutions obtained.
- Abstract(参考訳): 機械学習と最適化の統合に関する最近の研究が急増している。
この研究ストリーム内の拡張領域の1つは予測モデル埋め込み最適化であり、最適化問題の目的関数に対して事前学習された予測モデルを用いて、予測モデルの特徴が最適化問題の決定変数となる。
この分野における最近の出版物の増加にもかかわらず、この意思決定パイプラインのほとんどが見過ごされている側面は、最適化問題に対するソリューションが予測モデルのトレーニングに使用されるデータと似ていることを保証するための、トレーニングの関連性である。
本稿では,トレーニングの妥当性を高めるために設計された制約を提案し,提案した制約を加えることで,得られたソリューションの品質が著しく向上することを示す。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - From Function to Distribution Modeling: A PAC-Generative Approach to
Offline Optimization [30.689032197123755]
本稿では、オフラインデータ例の集合を除いて目的関数が不明なオフライン最適化の問題について考察する。
未知の目的関数を学習して最適化するのではなく、より直感的で直接的な視点で、最適化は生成モデルからサンプリングするプロセスと考えることができる。
論文 参考訳(メタデータ) (2024-01-04T01:32:50Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Optimization with Constraint Learning: A Framework and Survey [0.0]
本稿では,制約学習(OCL)による最適化のためのフレームワークを提案する。
i)概念最適化モデルのセットアップ、(ii)データ収集と前処理、(iii)予測モデルの選択とトレーニング、(iv)最適化モデルの解決、(v)最適化モデルの検証と改善。
論文 参考訳(メタデータ) (2021-10-05T15:42:06Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。