論文の概要: Adversarial Calibrated Regression for Online Decision Making
- arxiv url: http://arxiv.org/abs/2302.12196v2
- Date: Thu, 1 Jun 2023 06:41:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-03 00:15:13.086005
- Title: Adversarial Calibrated Regression for Online Decision Making
- Title(参考訳): オンライン意思決定のためのadversarial calibrated regression
- Authors: Volodymyr Kuleshov, Shachi Deshpande
- Abstract要約: データポイントの任意のストリーム上で信頼性が保証されるオンライン不確実性推定アルゴリズムを導入する。
この結果から,ロバストな不確実性定量化がオンライン意思決定を改善する可能性が示唆された。
- 参考スコア(独自算出の注目度): 4.395902695568884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately estimating uncertainty is an essential component of
decision-making and forecasting in machine learning. However, existing
uncertainty estimation methods may fail when data no longer follows the
distribution seen during training. Here, we introduce online uncertainty
estimation algorithms that are guaranteed to be reliable on arbitrary streams
of data points, including data chosen by an adversary. Specifically, our
algorithms perform post-hoc recalibration of a black-box regression model and
produce outputs that are provably calibrated -- i.e., an 80% confidence
interval will contain the true outcome 80% of the time -- and that have low
regret relative to the learning objective of the base model. We apply our
algorithms in the context of Bayesian optimization, an online model-based
decision-making task in which the data distribution shifts over time, and
observe accelerated convergence to improved optima. Our results suggest that
robust uncertainty quantification has the potential to improve online
decision-making.
- Abstract(参考訳): 不確実性を正確に推定することは、機械学習における意思決定と予測の重要な要素である。
しかし、既存の不確実性推定手法は、トレーニング中に見られる分布にデータが従わなければ失敗する可能性がある。
ここでは、敵が選択したデータを含む任意のデータポイントのストリームで信頼性が保証されるオンライン不確実性推定アルゴリズムを導入する。
具体的には、我々のアルゴリズムは、ブラックボックス回帰モデルのポストホックな再校正を行い、確実に校正された出力を生成する。すなわち、80%の信頼区間は、実際の結果の80%を包含し、ベースモデルの学習目標に対して後悔が少ない。
我々は,データ分散が時間とともに変化するオンラインモデルに基づく意思決定タスクであるベイズ最適化(Bayesian Optimization)のコンテキストにアルゴリズムを適用する。
以上の結果から,ロバストな不確実性定量化はオンライン意思決定を改善する可能性を示唆する。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Calibrated Probabilistic Forecasts for Arbitrary Sequences [58.54729945445505]
実際のデータストリームは、分散シフトやフィードバックループ、敵アクターによって予測不可能に変化する可能性がある。
データがどのように進化するかに関わらず、有効な不確実性推定を保証するための予測フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-27T21:46:42Z) - Reconciling Model Multiplicity for Downstream Decision Making [24.335927243672952]
2つの予測モデルがほぼ至るところでそれぞれの予測にほぼ一致しているとしても、最も応答性の高い行動が人口のかなりの部分で相違していることが示される。
本稿では,下流決定問題と個別確率予測の両方に関して,予測モデルを校正する枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-30T03:36:46Z) - Uncertainty for Active Learning on Graphs [70.44714133412592]
不確実性サンプリングは、機械学習モデルのデータ効率を改善することを目的とした、アクティブな学習戦略である。
予測の不確実性を超えた不確実性サンプリングをベンチマークし、他のアクティブラーニング戦略に対する大きなパフォーマンスギャップを強調します。
提案手法は,データ生成プロセスの観点から基幹的ベイズ不確実性推定法を開発し,不確実性サンプリングを最適クエリへ導く上での有効性を実証する。
論文 参考訳(メタデータ) (2024-05-02T16:50:47Z) - Calibrated Selective Classification [34.08454890436067]
そこで我々は,「不確か」な不確実性のある例を拒否する手法を提案する。
本稿では,選択的校正モデル学習のためのフレームワークを提案する。そこでは,任意のベースモデルの選択的校正誤差を改善するために,個別のセレクタネットワークを訓練する。
われわれは,複数画像分類と肺癌リスク評価におけるアプローチの実証的効果を実証した。
論文 参考訳(メタデータ) (2022-08-25T13:31:09Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Online Calibrated and Conformal Prediction Improves Bayesian Optimization [10.470326550507117]
本稿では,モデルに基づく意思決定やベイズ最適化における不確実性について検討する。
しかし、キャリブレーションの維持は、データが定常的ではなく、我々の行動に依存する場合、困難である。
我々は、オンライン学習に基づく簡単なアルゴリズムを用いて、非i.d.データのキャリブレーションを確実に維持することを提案する。
論文 参考訳(メタデータ) (2021-12-08T23:26:23Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Privacy Preserving Recalibration under Domain Shift [119.21243107946555]
本稿では,差分プライバシー制約下での校正問題の性質を抽象化する枠組みを提案する。
また、新しいリカレーションアルゴリズム、精度温度スケーリングを設計し、プライベートデータセットの事前処理より優れています。
論文 参考訳(メタデータ) (2020-08-21T18:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。