論文の概要: Class-wise and reduced calibration methods
- arxiv url: http://arxiv.org/abs/2210.03702v1
- Date: Fri, 7 Oct 2022 17:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:15:00.388875
- Title: Class-wise and reduced calibration methods
- Title(参考訳): クラス別および削減キャリブレーション方法
- Authors: Michael Panchenko, Anes Benmerzoug, Miguel de Benito Delgado
- Abstract要約: キャリブレーションの削減により、元の問題をより単純なものに変換する方法を示す。
第2に,ニューラル崩壊という現象に基づいて,クラスワイドキャリブレーション手法を提案する。
この2つの手法を併用すると、予測とクラスごとの校正誤差を低減する強力なツールであるクラス単位での校正アルゴリズムが実現される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: For many applications of probabilistic classifiers it is important that the
predicted confidence vectors reflect true probabilities (one says that the
classifier is calibrated). It has been shown that common models fail to satisfy
this property, making reliable methods for measuring and improving calibration
important tools. Unfortunately, obtaining these is far from trivial for
problems with many classes. We propose two techniques that can be used in
tandem. First, a reduced calibration method transforms the original problem
into a simpler one. We prove for several notions of calibration that solving
the reduced problem minimizes the corresponding notion of miscalibration in the
full problem, allowing the use of non-parametric recalibration methods that
fail in higher dimensions. Second, we propose class-wise calibration methods,
based on intuition building on a phenomenon called neural collapse and the
observation that most of the accurate classifiers found in practice can be
thought of as a union of K different functions which can be recalibrated
separately, one for each class. These typically out-perform their non
class-wise counterparts, especially for classifiers trained on imbalanced data
sets. Applying the two methods together results in class-wise reduced
calibration algorithms, which are powerful tools for reducing the prediction
and per-class calibration errors. We demonstrate our methods on real and
synthetic datasets and release all code as open source at
https://github.com/appliedAI-Initiative
- Abstract(参考訳): 確率的分類器の多くの応用にとって、予測された信頼ベクトルは真の確率を反映することが重要である(分類器は校正されていると言う)。
一般的なモデルは、この性質を満足できないことが示されており、測定と校正の信頼性の高い方法が重要なツールである。
残念なことに、これらを取得することは、多くのクラスの問題に対して、決して簡単ではない。
我々は,タンデムで使用できる2つの手法を提案する。
まず、削減キャリブレーション手法により、元の問題をより簡単なものに変換する。
縮小問題の解法は、全問題における誤校正の考え方を最小化し、高次元で失敗する非パラメトリック校正法を使用できることをいくつかの校正の考え方として証明する。
第二に、神経崩壊と呼ばれる現象に基づく直感的構築に基づくクラスワイドキャリブレーション手法を提案し、実際に発見された正確な分類器のほとんどは、各クラスごとに個別に再分類できるKの異なる関数の結合と考えることができる。
これらは典型的には、特に不均衡なデータセットで訓練された分類器の非クラスワイドな性能より優れている。
この2つの手法を併用すると、予測とクラスごとの校正誤差を低減する強力なツールであるクラス単位での校正アルゴリズムが実現される。
私たちは、実データと合成データセットのメソッドを実証し、すべてのコードをオープンソースとしてhttps://github.com/appliedAI-Initiativeで公開します。
関連論文リスト
- Confidence Calibration of Classifiers with Many Classes [5.018156030818883]
ニューラルネットワークに基づく分類モデルでは、最大クラス確率が信頼スコアとしてしばしば使用される。
このスコアは正しい予測を行う確率を十分に予測することは滅多になく、後処理のキャリブレーションステップを必要とする。
論文 参考訳(メタデータ) (2024-11-05T10:51:01Z) - Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Modular Conformal Calibration [80.33410096908872]
回帰における再校正のためのアルゴリズムを多種多様なクラスで導入する。
このフレームワークは、任意の回帰モデルをキャリブレーションされた確率モデルに変換することを可能にする。
我々は17の回帰データセットに対するMCCの実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-23T03:25:23Z) - Top-label calibration [3.3504365823045044]
マルチクラス分類におけるポストホックキャリブレーションの問題点について検討し,ヒストグラム・バイニングに着目した。
信頼度キャリブレーションという一般的な概念は十分に強くはないことが分かっています -- 意味のある方法でキャリブレーションされていないが、完全に信頼度キャリブレーションされている予測器が存在するのです。
本稿では,信頼度キャリブレーションの直感と単純さを正確に捉えつつも,その欠点に対処する,密接に関連する(微妙に異なる)概念であるトップラベルキャリブレーションを提案する。
論文 参考訳(メタデータ) (2021-07-18T03:27:50Z) - Uncertainty Quantification and Deep Ensembles [79.4957965474334]
ディープアンサンブルが必ずしもキャリブレーション特性の改善につながるとは限らないことを示す。
そこで本研究では,混成正規化などの現代的な手法と併用して標準アンサンブル法を用いることで,キャリブレーションの少ないモデルが得られることを示す。
このテキストは、データが不足しているときにディープラーニングを活用するために、最も単純で一般的な3つのアプローチの相互作用を調べる。
論文 参考訳(メタデータ) (2020-07-17T07:32:24Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z) - Mix-n-Match: Ensemble and Compositional Methods for Uncertainty
Calibration in Deep Learning [21.08664370117846]
我々は,Mix-n-Matchキャリブレーション戦略が,データ効率と表現力を大幅に向上することを示す。
標準評価プラクティスの潜在的な問題も明らかにします。
我々の手法はキャリブレーションと評価タスクの両方において最先端のソリューションより優れている。
論文 参考訳(メタデータ) (2020-03-16T17:00:35Z) - Better Classifier Calibration for Small Data Sets [0.0]
キャリブレーションのためのデータ生成により,キャリブレーションアルゴリズムの性能が向上することを示す。
提案手法は計算コストを増大させるが、主なユースケースは小さなデータセットであるので、この余分な計算コストは重要ではない。
論文 参考訳(メタデータ) (2020-02-24T12:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。