論文の概要: Simulating classification models to evaluate Predict-Then-Optimize methods
- arxiv url: http://arxiv.org/abs/2509.02191v1
- Date: Tue, 02 Sep 2025 11:05:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.003433
- Title: Simulating classification models to evaluate Predict-Then-Optimize methods
- Title(参考訳): 予測Then-Optimize法の評価のための分類モデルのシミュレーション
- Authors: Pieter Smet,
- Abstract要約: 最適化の不確実性はしばしば最適化モデルのパラメータとして表される。
Predict-Then自明なアプローチでは、そのようなパラメータの値として機械学習モデルの予測が使用される。
予測誤差と実際の解の密接な関係は実験的でないことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uncertainty in optimization is often represented as stochastic parameters in the optimization model. In Predict-Then-Optimize approaches, predictions of a machine learning model are used as values for such parameters, effectively transforming the stochastic optimization problem into a deterministic one. This two-stage framework is built on the assumption that more accurate predictions result in solutions that are closer to the actual optimal solution. However, providing evidence for this assumption in the context of complex, constrained optimization problems is challenging and often overlooked in the literature. Simulating predictions of machine learning models offers a way to (experimentally) analyze how prediction error impacts solution quality without the need to train real models. Complementing an algorithm from the literature for simulating binary classification, we introduce a new algorithm for simulating predictions of multiclass classifiers. We conduct a computational study to evaluate the performance of these algorithms, and show that classifier performance can be simulated with reasonable accuracy, although some variability is observed. Additionally, we apply these algorithms to assess the performance of a Predict-Then-Optimize algorithm for a machine scheduling problem. The experiments demonstrate that the relationship between prediction error and how close solutions are to the actual optimum is non-trivial, highlighting important considerations for the design and evaluation of decision-making systems based on machine learning predictions.
- Abstract(参考訳): 最適化の不確かさはしばしば最適化モデルにおける確率的パラメータとして表される。
Predict-Then-Optimizeアプローチでは、そのようなパラメータの値として機械学習モデルの予測を使用し、確率最適化問題を決定論的に変換する。
この2段階のフレームワークは、より正確な予測が実際の最適解に近い解をもたらすという仮定に基づいて構築されている。
しかし、複雑な制約付き最適化問題という文脈でこの仮定の証拠を提供することは困難であり、文献ではしばしば見落とされがちである。
機械学習モデルの予測をシミュレーションすることで、実際のモデルをトレーニングすることなく、予測エラーがソリューションの品質に与える影響を(実験的に)分析することができる。
バイナリ分類をシミュレートするための文献からのアルゴリズムを補完し、マルチクラス分類器の予測をシミュレートするための新しいアルゴリズムを導入する。
我々はこれらのアルゴリズムの性能を評価するために計算学的研究を行い、いくつかの変数が観測されているが、分類器の性能は妥当な精度でシミュレート可能であることを示す。
さらに,これらのアルゴリズムを機械スケジューリング問題に対する予測値最適化アルゴリズムの性能評価に適用する。
実験により,予測誤差と実際の最適解との密接な関係は非自明であり,機械学習予測に基づく意思決定システムの設計と評価に関する重要な考察が浮き彫りにされている。
関連論文リスト
- The Pitfalls of Benchmarking in Algorithm Selection: What We Are Getting Wrong [1.973144426163543]
本稿では,コミュニティで頻繁に発生する方法論的問題に注目し,アルゴリズムの選択手法を評価する際に対処すべき課題について述べる。
非形式的特徴やメタモデルは高い精度を達成できることを示すが、十分に設計された評価フレームワークではそうはならない。
論文 参考訳(メタデータ) (2025-05-12T16:57:45Z) - Algorithms with Calibrated Machine Learning Predictions [9.18151868060576]
予測を伴うアルゴリズムの分野は、リアルタイムのパフォーマンスを改善するためのオンラインアルゴリズムの設計に機械学習のアドバイスを取り入れている。
既存のアプローチでは、ユーザが総合的な信頼レベルを指定する必要があることが多いが、現代の機械学習モデルは、予測レベルの不確実性を見積もることができる。
このギャップを埋めるための原則的かつ実践的なツールとしてキャリブレーションを提案し、2つのケーススタディを通じてキャリブレーションされたアドバイスの利点を実証する。
論文 参考訳(メタデータ) (2025-02-05T03:41:18Z) - Comparative study of regression vs pairwise models for surrogate-based heuristic optimisation [1.2535250082638645]
本稿では, シュロゲート問題の定式化を, 適合度を近似する回帰モデル(表面シュロゲートモデル)と, 分類モデル(ペアワイズ・シュロゲートモデル)を結合する新しい方法の両方として扱う。
オンライン機械学習に基づくサロゲートモデルを用いる場合の全体探索の性能は、予測モデルの精度だけでなく、正または負のケースに対するバイアスの種類にも依存する。
論文 参考訳(メタデータ) (2024-10-04T13:19:06Z) - Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - You Shall Pass: Dealing with the Zero-Gradient Problem in Predict and
Optimize for Convex Optimization [1.98873083514863]
予測と最適化は、機械学習を用いて最適化問題の未知のパラメータを予測する、ますます人気のある意思決定パラダイムである。
そのようなモデルを訓練する上で重要な課題は、パラメータに関する最適化問題の解のヤコビアンの計算である。
ヤコビアンは大きさの可能なヌル空間を持つことができ、したがってトレーニングプロセスが最適下点に留まることが示される。
論文 参考訳(メタデータ) (2023-07-30T19:14:05Z) - Integrated Optimization of Predictive and Prescriptive Tasks [0.0]
予測タスクを記述タスクとして直接統合する新しいフレームワークを提案する。
予測アルゴリズムのパラメータを2レベル最適化技術により、処方問題内でトレーニングします。
論文 参考訳(メタデータ) (2021-01-02T02:43:10Z) - An AI-Assisted Design Method for Topology Optimization Without
Pre-Optimized Training Data [68.8204255655161]
トポロジ最適化に基づくAI支援設計手法を提示し、最適化された設計を直接的に得ることができる。
設計は、境界条件と入力データとしての充填度に基づいて、人工ニューラルネットワーク、予測器によって提供される。
論文 参考訳(メタデータ) (2020-12-11T14:33:27Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。