論文の概要: Distribution-free binary classification: prediction sets, confidence
intervals and calibration
- arxiv url: http://arxiv.org/abs/2006.10564v4
- Date: Wed, 16 Feb 2022 18:42:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 09:59:54.278141
- Title: Distribution-free binary classification: prediction sets, confidence
intervals and calibration
- Title(参考訳): 分布自由二分分類:予測セット、信頼区間、校正
- Authors: Chirag Gupta, Aleksandr Podkopaev, Aaditya Ramdas
- Abstract要約: 分布自由条件における二項分類のための不確実性定量化(キャリブレーション、信頼区間、予測セット)の3つの概念について検討する。
固定幅と一様質量の両双対の双対確率に対する信頼区間を導出する。
我々の「三脚」定理の結果として、双有理確率に対するこれらの信頼区間は分布自由キャリブレーションに繋がる。
- 参考スコア(独自算出の注目度): 106.50279469344937
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study three notions of uncertainty quantification -- calibration,
confidence intervals and prediction sets -- for binary classification in the
distribution-free setting, that is without making any distributional
assumptions on the data. With a focus towards calibration, we establish a
'tripod' of theorems that connect these three notions for score-based
classifiers. A direct implication is that distribution-free calibration is only
possible, even asymptotically, using a scoring function whose level sets
partition the feature space into at most countably many sets. Parametric
calibration schemes such as variants of Platt scaling do not satisfy this
requirement, while nonparametric schemes based on binning do. To close the
loop, we derive distribution-free confidence intervals for binned probabilities
for both fixed-width and uniform-mass binning. As a consequence of our 'tripod'
theorems, these confidence intervals for binned probabilities lead to
distribution-free calibration. We also derive extensions to settings with
streaming data and covariate shift.
- Abstract(参考訳): 本研究では,不確実性定量化(キャリブレーション,信頼区間,予測集合)の3つの概念を,分布自由条件における二項分類について検討する。
校正に焦点をあてて,これら3つの概念をスコアベース分類器に結合する定理の'三脚'を確立する。
直接的な意味は、分布のないキャリブレーションは、レベルが特徴空間を可算個の集合に分割するスコアリング関数を使って、漸近的にのみ可能であるということである。
プラッツスケーリングの変種のようなパラメトリックキャリブレーションスキームはこの要件を満たさないが、ビンニングに基づく非パラメトリックキャリブレーションスキームは満たさない。
ループを閉じるために、固定幅と均一質量の両方の双対確率の分布自由信頼区間を導出する。
我々の「三脚」定理の結果として、双有理確率に対するこれらの信頼区間は分布自由キャリブレーションをもたらす。
また、ストリーミングデータとコ変量シフトによる設定の拡張も導出します。
関連論文リスト
- Provably Reliable Conformal Prediction Sets in the Presence of Data Poisoning [53.42244686183879]
コンフォーマル予測は、モデルに依存しない、分布のない不確実性定量化を提供する。
しかし、敵が訓練データと校正データを操作した場合の毒殺攻撃では、共形予測は信頼性が低い。
信頼性予測セット (RPS): 汚染下での信頼性保証を証明可能な共形予測セットを構築するための最初の効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-13T15:37:11Z) - Beyond Calibration: Assessing the Probabilistic Fit of Neural Regressors via Conditional Congruence [2.2359781747539396]
ディープネットワークは、しばしば過剰な自信と不一致な予測分布に悩まされる。
本稿では,条件付きカーネルの平均埋め込みを用いて,学習した予測分布とデータセットにおける経験的条件分布との距離を推定する,条件付きコングルーエンス誤差(CCE)について紹介する。
本研究では,1)データ生成プロセスが知られている場合の分布間の不一致を正確に定量化し,2)実世界の高次元画像回帰タスクに効果的にスケールし,3)未知のインスタンス上でのモデルの信頼性を評価することができることを示す。
論文 参考訳(メタデータ) (2024-05-20T23:30:07Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Beyond calibration: estimating the grouping loss of modern neural
networks [68.8204255655161]
適切なスコアリングルール理論は、キャリブレーション損失が与えられた場合、個々のエラーを特徴づける欠片がグループ化損失であることを示している。
視覚およびNLPにおける現代のニューラルネットワークアーキテクチャは、特に分散シフト設定においてグループ化損失を示す。
論文 参考訳(メタデータ) (2022-10-28T07:04:20Z) - Test-time Recalibration of Conformal Predictors Under Distribution Shift
Based on Unlabeled Examples [30.61588337557343]
コンフォーマル予測器は、ユーザが特定した確率で一連のクラスを計算することで不確実性の推定を提供する。
本研究では,自然分布シフト下での優れた不確実性推定を行う手法を提案する。
論文 参考訳(メタデータ) (2022-10-09T04:46:00Z) - Approximate Conditional Coverage via Neural Model Approximations [0.030458514384586396]
実験的に信頼性の高い近似条件付きカバレッジを得るためのデータ駆動手法を解析する。
我々は、限界範囲のカバレッジ保証を持つ分割型代替案で、実質的な(そして、そうでない)アンダーカバーの可能性を実証する。
論文 参考訳(メタデータ) (2022-05-28T02:59:05Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Predictive Value Generalization Bounds [27.434419027831044]
本稿では,二項分類の文脈におけるスコアリング関数の評価のためのビクテリオンフレームワークについて検討する。
本研究では,新しい分布自由な大偏差と一様収束境界を導出することにより,予測値に関するスコアリング関数の特性について検討する。
論文 参考訳(メタデータ) (2020-07-09T21:23:28Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。