論文の概要: Mix-n-Match: Ensemble and Compositional Methods for Uncertainty
Calibration in Deep Learning
- arxiv url: http://arxiv.org/abs/2003.07329v2
- Date: Tue, 30 Jun 2020 06:44:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 02:48:32.347119
- Title: Mix-n-Match: Ensemble and Compositional Methods for Uncertainty
Calibration in Deep Learning
- Title(参考訳): Mix-n-Match:ディープラーニングにおける不確かさ校正のためのアンサンブルと構成法
- Authors: Jize Zhang and Bhavya Kailkhura and T. Yong-Jin Han
- Abstract要約: 我々は,Mix-n-Matchキャリブレーション戦略が,データ効率と表現力を大幅に向上することを示す。
標準評価プラクティスの潜在的な問題も明らかにします。
我々の手法はキャリブレーションと評価タスクの両方において最先端のソリューションより優れている。
- 参考スコア(独自算出の注目度): 21.08664370117846
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper studies the problem of post-hoc calibration of machine learning
classifiers. We introduce the following desiderata for uncertainty calibration:
(a) accuracy-preserving, (b) data-efficient, and (c) high expressive power. We
show that none of the existing methods satisfy all three requirements, and
demonstrate how Mix-n-Match calibration strategies (i.e., ensemble and
composition) can help achieve remarkably better data-efficiency and expressive
power while provably maintaining the classification accuracy of the original
classifier. Mix-n-Match strategies are generic in the sense that they can be
used to improve the performance of any off-the-shelf calibrator. We also reveal
potential issues in standard evaluation practices. Popular approaches (e.g.,
histogram-based expected calibration error (ECE)) may provide misleading
results especially in small-data regime. Therefore, we propose an alternative
data-efficient kernel density-based estimator for a reliable evaluation of the
calibration performance and prove its asymptotically unbiasedness and
consistency. Our approaches outperform state-of-the-art solutions on both the
calibration as well as the evaluation tasks in most of the experimental
settings. Our codes are available at
https://github.com/zhang64-llnl/Mix-n-Match-Calibration.
- Abstract(参考訳): 本稿では,機械学習分類器のポストホックキャリブレーションの問題について検討する。
不確実性校正のための以下のデシデラタを導入する。
(a)精度保存
(b)データ効率,及び
(c)高表現力。
既存の手法が3つの要件をすべて満たさないことを示すとともに,mix-nマッチングキャリブレーション戦略(すなわちアンサンブルとコンポジション)が,元の分類器の分類精度を維持しつつ,極めて優れたデータ効率と表現力を達成する上で有効であることを示す。
mix-n-match戦略は、既存のキャリブレータのパフォーマンスを改善するために使用できるという意味では一般的です。
標準評価プラクティスの潜在的な問題も明らかにします。
一般的なアプローチ(例えばヒストグラムに基づく予測校正誤差(ECE))は、特に小さなデータ体制において誤解を招く結果をもたらす可能性がある。
そこで本研究では,キャリブレーション性能の信頼性評価のための代替データ効率の高いカーネル密度に基づく推定器を提案する。
提案手法は,キャリブレーションと評価タスクの両方において,実験のほとんどにおいて最先端のソリューションよりも優れています。
私たちのコードはhttps://github.com/zhang64-llnl/mix-n-match-calibrationで利用可能です。
関連論文リスト
- Calibration by Distribution Matching: Trainable Kernel Calibration
Metrics [56.629245030893685]
カーネルベースのキャリブレーションメトリクスを導入し、分類と回帰の両方で一般的なキャリブレーションの形式を統一・一般化する。
これらの指標は、異なるサンプル推定を許容しており、キャリブレーションの目的を経験的リスク最小化に組み込むのが容易である。
決定タスクにキャリブレーションメトリクスを調整し、正確な損失推定を行ない、後悔しない決定を行うための直感的なメカニズムを提供する。
論文 参考訳(メタデータ) (2023-10-31T06:19:40Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Class-wise and reduced calibration methods [0.0]
キャリブレーションの削減により、元の問題をより単純なものに変換する方法を示す。
第2に,ニューラル崩壊という現象に基づいて,クラスワイドキャリブレーション手法を提案する。
この2つの手法を併用すると、予測とクラスごとの校正誤差を低減する強力なツールであるクラス単位での校正アルゴリズムが実現される。
論文 参考訳(メタデータ) (2022-10-07T17:13:17Z) - Improving Uncertainty Calibration of Deep Neural Networks via Truth
Discovery and Geometric Optimization [22.57474734944132]
本研究では,アンサンブルとポストホックの校正手法を統合するための真理発見フレームワークを提案する。
CIFARやImageNetなどの大規模データセットでは,最先端のキャリブレーション手法に対して一貫した改善が見られた。
論文 参考訳(メタデータ) (2021-06-25T06:44:16Z) - Localized Calibration: Metrics and Recalibration [133.07044916594361]
完全大域キャリブレーションと完全個別化キャリブレーションのギャップにまたがる細粒度キャリブレーション指標を提案する。
次に,局所再校正法であるLoReを導入し,既存の校正法よりもLCEを改善する。
論文 参考訳(メタデータ) (2021-02-22T07:22:12Z) - Combining Ensembles and Data Augmentation can Harm your Calibration [33.94335246681807]
アンサンブルとデータ拡張を組み合わせることで、モデルのキャリブレーションを損なう可能性がある。
我々は,アンサンブルやデータ拡張のみを個別に使用することよりも,精度とキャリブレーションの利得を高い精度で達成し,両世界のベストを達成できる簡単な補正を提案する。
論文 参考訳(メタデータ) (2020-10-19T21:25:22Z) - Uncertainty Quantification and Deep Ensembles [79.4957965474334]
ディープアンサンブルが必ずしもキャリブレーション特性の改善につながるとは限らないことを示す。
そこで本研究では,混成正規化などの現代的な手法と併用して標準アンサンブル法を用いることで,キャリブレーションの少ないモデルが得られることを示す。
このテキストは、データが不足しているときにディープラーニングを活用するために、最も単純で一般的な3つのアプローチの相互作用を調べる。
論文 参考訳(メタデータ) (2020-07-17T07:32:24Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z) - Multi-Class Uncertainty Calibration via Mutual Information
Maximization-based Binning [8.780958735684958]
ポストホック多クラスキャリブレーションは、ディープニューラルネットワーク予測の信頼度推定を提供する一般的なアプローチである。
近年の研究では、広く使われているスケーリング手法がキャリブレーション誤差を過小評価していることが示されている。
類似クラス間で1つのキャリブレータを共有する共有クラスワイド(sCW)キャリブレーション戦略を提案する。
論文 参考訳(メタデータ) (2020-06-23T15:31:59Z) - Calibration of Neural Networks using Splines [51.42640515410253]
キャリブレーション誤差の測定は、2つの経験的分布を比較します。
古典的コルモゴロフ・スミルノフ統計テスト(KS)にインスパイアされたビンニングフリーキャリブレーション尺度を導入する。
提案手法は,KS誤差に対する既存の手法と,他の一般的なキャリブレーション手法とを一貫して比較する。
論文 参考訳(メタデータ) (2020-06-23T07:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。