論文の概要: On Calibration of Ensemble-Based Credal Predictors
- arxiv url: http://arxiv.org/abs/2205.10082v1
- Date: Fri, 20 May 2022 10:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 14:37:45.399975
- Title: On Calibration of Ensemble-Based Credal Predictors
- Title(参考訳): アンサンブルに基づくクレダル予測器の校正について
- Authors: Thomas Mortier and Viktor Bengs and Eyke H\"ullermeier and Stijn Luca
and Willem Waegeman
- Abstract要約: 本研究では, 地震予知器の非パラメトリックキャリブレーション試験を提案する。
実験によって、深層ニューラルネットワークに基づく断裂予測器は、しばしば十分に校正されていないことが示されている。
- 参考スコア(独自算出の注目度): 6.759124697337311
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, several classification methods that intend to quantify
epistemic uncertainty have been proposed, either by producing predictions in
the form of second-order distributions or sets of probability distributions. In
this work, we focus on the latter, also called credal predictors, and address
the question of how to evaluate them: What does it mean that a credal predictor
represents epistemic uncertainty in a faithful manner? To answer this question,
we refer to the notion of calibration of probabilistic predictors and extend it
to credal predictors. Broadly speaking, we call a credal predictor calibrated
if it returns sets that cover the true conditional probability distribution. To
verify this property for the important case of ensemble-based credal
predictors, we propose a novel nonparametric calibration test that generalizes
an existing test for probabilistic predictors to the case of credal predictors.
Making use of this test, we empirically show that credal predictors based on
deep neural networks are often not well calibrated.
- Abstract(参考訳): 近年, 2次分布や確率分布の集合の形で予測を生成することによって, 疫学的不確実性を定量化するいくつかの分類法が提案されている。
本研究では, クレーダル予測器(redal predictor)とも呼ばれる後者に着目し, どのように評価するかという問題に対処する。
この質問に答えるために、確率予測器のキャリブレーションの概念を言及し、それを地震予測器に拡張する。
大まかに言えば、真条件確率分布をカバーする集合を返却した場合は、潮位予測器を校正する。
本研究では,この特性を,アンサンブルに基づく地震予知器の重要事例に対して検証するため,確率予測器の既存試験をダム予知器に一般化する非パラメトリックキャリブレーション法を提案する。
このテストを用いて,深層ニューラルネットワークに基づくcredal予測器の校正が良くないことを実証的に示す。
関連論文リスト
- Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - On the Role of Randomization in Adversarially Robust Classification [13.39932522722395]
ランダムなアンサンブルは、敵のリスクに設定された仮説より優れていることを示す。
また、そのような決定論的分類器を含む決定論的仮説セットを明示的に記述する。
論文 参考訳(メタデータ) (2023-02-14T17:51:00Z) - Calibration tests beyond classification [30.616624345970973]
ほとんどの教師付き機械学習タスクは、既約予測エラーを被る。
確率論的予測モデルは、妥当な目標に対する信念を表す確率分布を提供することによって、この制限に対処する。
校正されたモデルは、予測が過信でも過信でもないことを保証します。
論文 参考訳(メタデータ) (2022-10-21T09:49:57Z) - Test-time Recalibration of Conformal Predictors Under Distribution Shift
Based on Unlabeled Examples [30.61588337557343]
コンフォーマル予測器は、ユーザが特定した確率で一連のクラスを計算することで不確実性の推定を提供する。
本研究では,自然分布シフト下での優れた不確実性推定を行う手法を提案する。
論文 参考訳(メタデータ) (2022-10-09T04:46:00Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z) - Temporal Probability Calibration [0.0]
本研究では,データ列からクラス確率推定を生成するモデルの校正について検討し,不完全列から予測が得られた場合に着目した。
従来のキャリブレーション手法は,この課題に対して十分に表現できないことを示し,入力シーケンスの長さに応じてキャリブレーション方式を適用する手法を提案する。
論文 参考訳(メタデータ) (2020-02-07T06:59:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。