論文の概要: Hidden Heterogeneity: When to Choose Similarity-Based Calibration
- arxiv url: http://arxiv.org/abs/2202.01840v1
- Date: Thu, 3 Feb 2022 20:43:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 02:48:37.312091
- Title: Hidden Heterogeneity: When to Choose Similarity-Based Calibration
- Title(参考訳): 隠れた不均一性: 類似性に基づくキャリブレーションを選択する場合
- Authors: Kiri L. Wagstaff and Thomas G. Dietterich
- Abstract要約: ブラックボックスキャリブレーション法は、キャリブレーションが予測精度を向上させるサブポレーションを検出することができない。
隠れ不均一性(HH)の定量的尺度を提案する。
実験により, 類似度に基づくキャリブレーション法によって達成されたキャリブレーションの改善は, 現在あるHH量と相関し, 十分なキャリブレーションデータを得た場合, 大域的なキャリブレーション法で達成したキャリブレーションを概ね上回っていることがわかった。
- 参考スコア(独自算出の注目度): 12.788224825185633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trustworthy classifiers are essential to the adoption of machine learning
predictions in many real-world settings. The predicted probability of possible
outcomes can inform high-stakes decision making, particularly when assessing
the expected value of alternative decisions or the risk of bad outcomes. These
decisions require well calibrated probabilities, not just the correct
prediction of the most likely class. Black-box classifier calibration methods
can improve the reliability of a classifier's output without requiring
retraining. However, these methods are unable to detect subpopulations where
calibration could improve prediction accuracy. Such subpopulations are said to
exhibit "hidden heterogeneity" (HH), because the original classifier did not
detect them. The paper proposes a quantitative measure for HH. It also
introduces two similarity-weighted calibration methods that can address HH by
adapting locally to each test item: SWC weights the calibration set by
similarity to the test item, and SWC-HH explicitly incorporates hidden
heterogeneity to filter the calibration set. Experiments show that the
improvements in calibration achieved by similarity-based calibration methods
correlate with the amount of HH present and, given sufficient calibration data,
generally exceed calibration achieved by global methods. HH can therefore serve
as a useful diagnostic tool for identifying when local calibration methods are
needed.
- Abstract(参考訳): 信頼できる分類器は多くの現実世界で機械学習の予測を採用するのに不可欠である。
予測される結果の確率は、特に代替決定の期待値や悪い結果のリスクを評価する場合、高い評価の意思決定に影響を及ぼす可能性がある。
これらの決定は、最も可能性の高いクラスの正しい予測だけでなく、十分に校正された確率を必要とする。
ブラックボックス分類器校正手法は、再訓練を必要とせず、分類器出力の信頼性を向上させることができる。
しかし,これらの手法では,キャリブレーションによって予測精度が向上するサブポピュレーションを検出できない。
このようなサブ集団は、元の分類器が検出しなかったため、「隠れた不均一性」(HH)を示すと言われている。
本稿では,HHの定量的尺度を提案する。
また、各テスト項目に局所的に適応することでHHに対処できる類似度重み付けキャリブレーション法が2つ導入されている:SWCはテスト項目と類似度で設定されたキャリブレーションを重み付けし、SWC-HHは隠蔽ヘテロジニティを明示的に組み込んでキャリブレーションセットをフィルタリングする。
実験により,類似性に基づく校正手法による校正改善はhhの量と相関し,十分な校正データが与えられた場合,大域的手法による校正を概ね上回ることを示した。
したがって、HHは局所的な校正法が必要なときの識別に有用な診断ツールとなる。
関連論文リスト
- Towards Certification of Uncertainty Calibration under Adversarial Attacks [96.48317453951418]
攻撃はキャリブレーションを著しく損なう可能性を示し, 対向的摂動下でのキャリブレーションにおける最悪のキャリブレーション境界として認定キャリブレーションを提案する。
我々は,新しいキャリブレーション攻撃を提案し,テクスタディバーショナルキャリブレーショントレーニングによりモデルキャリブレーションを改善する方法を示す。
論文 参考訳(メタデータ) (2024-05-22T18:52:09Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - T-Cal: An optimal test for the calibration of predictive models [49.11538724574202]
有限検証データセットを用いた予測モデルの誤校正を仮説検証問題として検討する。
誤校正の検出は、クラスの条件付き確率が予測の十分滑らかな関数である場合にのみ可能である。
我々は、$ell$-Expected Error(ECE)のデバイアスドプラグイン推定器に基づくキャリブレーションのためのミニマックステストであるT-Calを提案する。
論文 参考訳(メタデータ) (2022-03-03T16:58:54Z) - Localized Calibration: Metrics and Recalibration [133.07044916594361]
完全大域キャリブレーションと完全個別化キャリブレーションのギャップにまたがる細粒度キャリブレーション指標を提案する。
次に,局所再校正法であるLoReを導入し,既存の校正法よりもLCEを改善する。
論文 参考訳(メタデータ) (2021-02-22T07:22:12Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z) - Mix-n-Match: Ensemble and Compositional Methods for Uncertainty
Calibration in Deep Learning [21.08664370117846]
我々は,Mix-n-Matchキャリブレーション戦略が,データ効率と表現力を大幅に向上することを示す。
標準評価プラクティスの潜在的な問題も明らかにします。
我々の手法はキャリブレーションと評価タスクの両方において最先端のソリューションより優れている。
論文 参考訳(メタデータ) (2020-03-16T17:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。