論文の概要: Learning Best-in-Class Policies for the Predict-then-Optimize Framework
- arxiv url: http://arxiv.org/abs/2402.03256v2
- Date: Fri, 9 Feb 2024 00:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 19:30:31.500013
- Title: Learning Best-in-Class Policies for the Predict-then-Optimize Framework
- Title(参考訳): 予測列最適化フレームワークのためのクラス内ベストポリシーの学習
- Authors: Michael Huang, Vishal Gupta
- Abstract要約: そこで我々は,予測最適化フレームワークとして,摂動勾配損失(PG損失)と呼ばれる,決定を意識した新たなサロゲート損失のファミリーを提案する。
既存のサロゲート損失とは異なり、PG損失の近似誤差はサンプル数が増加するにつれて消失する。
これは、サロゲート損失の最適化が、不特定設定であっても、クラス内で最良のポリシーをもたらすことを意味する。
- 参考スコア(独自算出の注目度): 1.4605369555213963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel family of decision-aware surrogate losses, called
Perturbation Gradient (PG) losses, for the predict-then-optimize framework.
These losses directly approximate the downstream decision loss and can be
optimized using off-the-shelf gradient-based methods. Importantly, unlike
existing surrogate losses, the approximation error of our PG losses vanishes as
the number of samples grows. This implies that optimizing our surrogate loss
yields a best-in-class policy asymptotically, even in misspecified settings.
This is the first such result in misspecified settings and we provide numerical
evidence confirming our PG losses substantively outperform existing proposals
when the underlying model is misspecified and the noise is not centrally
symmetric. Insofar as misspecification is commonplace in practice -- especially
when we might prefer a simpler, more interpretable model -- PG losses offer a
novel, theoretically justified, method for computationally tractable
decision-aware learning.
- Abstract(参考訳): 本研究では,予測最適化の枠組みにおいて,摂動勾配(pg)損失と呼ばれる,新たな決定認識型サーロゲート損失のファミリーを提案する。
これらの損失は下流の決定損失を直接近似し、オフザシェルフ勾配法を用いて最適化することができる。
重要なことに、既存のサーロゲート損失とは異なり、サンプル数が増えるにつれてpg損失の近似誤差は失われる。
これは、サロゲート損失を最適化することで、不特定設定であっても、クラス内で最高のポリシーが漸近的に得られます。
提案手法は,提案モデルが不特定であり,ノイズが中心対称でない場合に,PG損失が既存の提案よりも即時上回っていることを示す数値的証拠を提供する。
特に、よりシンプルで解釈可能なモデルを好む場合、PG損失は、計算的に抽出可能な決定認識学習のための、理論上正当化された新しい方法を提供する。
関連論文リスト
- Model-Based Epistemic Variance of Values for Risk-Aware Policy
Optimization [63.32053223422317]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
特に、MDP上の分布によって誘導される値の分散を特徴付けることに焦点をあてる。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Regression with Cost-based Rejection [30.43900105405108]
本稿では, ある拒絶コストを前提として, モデルがいくつかの例で予測を下方修正できる新たな回帰問題について検討する。
我々はベイズ最適解を導出し、最適モデルが拒絶コストよりも分散が大きい例について予測を下さなければならないことを示す。
論文 参考訳(メタデータ) (2023-11-08T09:33:21Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - Active Learning in the Predict-then-Optimize Framework: A Margin-Based
Approach [5.371816551086118]
本研究では,ラベルのないデータストリームから特徴サンプルのラベルを要求するかどうかを逐次決定する学習手法を開発した。
我々の能動学習法は,予測パラメータによって引き起こされる決定誤差によって直接情報を得る最初の方法である。
論文 参考訳(メタデータ) (2023-05-11T05:44:36Z) - Loss-Controlling Calibration for Predictive Models [5.51361762392299]
交換可能なデータに対する損失制御予測を行うための予測モデルの校正のための学習フレームワークを提案する。
対照的に、損失制御手法によって構築された予測器は、設定された予測器に限らない。
提案手法は,選択的回帰および高影響気象予報問題に適用する。
論文 参考訳(メタデータ) (2023-01-11T09:44:55Z) - A Note on Task-Aware Loss via Reweighing Prediction Loss by
Decision-Regret [11.57423546614283]
我々は予測最適化の意思決定対応版を提案する。
コストの(非重みのない)パイロット推定器が犯した決定の後悔による予測誤差を再検討する。
このアプローチは"予測を最適化する"フレームワークよりも改善する可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-09T18:59:35Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Deep learning: a statistical viewpoint [120.94133818355645]
ディープラーニングは、理論的観点からいくつかの大きな驚きを明らかにしました。
特に、簡単な勾配法は、最適でないトレーニング問題に対するほぼ完全な解決策を簡単に見つけます。
我々はこれらの現象を具体的原理で補うと推測する。
論文 参考訳(メタデータ) (2021-03-16T16:26:36Z) - A Symmetric Loss Perspective of Reliable Machine Learning [87.68601212686086]
平衡誤差率 (BER) の最小化において, 対称損失が破損ラベルからのロバストな分類をいかに生み出すかを検討する。
我々は、関連するキーワードからのみ学習したい問題において、AUC手法が自然言語処理にどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-01-05T06:25:47Z) - Selective Classification via One-Sided Prediction [54.05407231648068]
片側予測(OSP)に基づく緩和は、実際に関係する高目標精度体制において、ほぼ最適カバレッジが得られるSCスキームをもたらす。
理論的には,SCとOSPのバウンダリ一般化を導出し,その手法が小さな誤差レベルでのカバレッジにおいて,技術手法の状態を強く上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。