論文の概要: Classifier Ensemble for Efficient Uncertainty Calibration of Deep Neural Networks for Image Classification
- arxiv url: http://arxiv.org/abs/2501.10089v1
- Date: Fri, 17 Jan 2025 10:16:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:59:36.455340
- Title: Classifier Ensemble for Efficient Uncertainty Calibration of Deep Neural Networks for Image Classification
- Title(参考訳): 画像分類のためのディープニューラルネットワークの効率的な不確かさ校正のための分類器アンサンブル
- Authors: Michael Schulze, Nikolas Ebert, Laurenz Reichardt, Oliver Wasenmüller,
- Abstract要約: 我々は、期待誤差(ECE)と最大誤差(MCE)に着目し、精度と校正基準の両方を評価する。
我々の研究は、多数決投票やメタモデルに基づくアプローチを含む、単純で効率的な分類器アンサンブルを構築するための様々な方法を比較している。
- 参考スコア(独自算出の注目度): 1.0649605625763086
- License:
- Abstract: This paper investigates novel classifier ensemble techniques for uncertainty calibration applied to various deep neural networks for image classification. We evaluate both accuracy and calibration metrics, focusing on Expected Calibration Error (ECE) and Maximum Calibration Error (MCE). Our work compares different methods for building simple yet efficient classifier ensembles, including majority voting and several metamodel-based approaches. Our evaluation reveals that while state-of-the-art deep neural networks for image classification achieve high accuracy on standard datasets, they frequently suffer from significant calibration errors. Basic ensemble techniques like majority voting provide modest improvements, while metamodel-based ensembles consistently reduce ECE and MCE across all architectures. Notably, the largest of our compared metamodels demonstrate the most substantial calibration improvements, with minimal impact on accuracy. Moreover, classifier ensembles with metamodels outperform traditional model ensembles in calibration performance, while requiring significantly fewer parameters. In comparison to traditional post-hoc calibration methods, our approach removes the need for a separate calibration dataset. These findings underscore the potential of our proposed metamodel-based classifier ensembles as an efficient and effective approach to improving model calibration, thereby contributing to more reliable deep learning systems.
- Abstract(参考訳): 本稿では,画像分類のための様々な深層ニューラルネットワークに適用された不確実性校正のための新しい分類器アンサンブル手法について検討する。
我々は,予測校正誤差 (ECE) と最大校正誤差 (MCE) に着目し,精度と校正基準の両方を評価した。
我々の研究は、多数決投票やメタモデルに基づくアプローチを含む、単純で効率的な分類器アンサンブルを構築するための様々な方法を比較している。
評価の結果,画像分類のための最先端のディープニューラルネットワークは,標準データセットの精度が高いが,キャリブレーションエラーが頻発していることが判明した。
多数決投票のような基本的なアンサンブル技術は、控えめな改善を提供するが、メタモデルベースのアンサンブルは、すべてのアーキテクチャにおけるECEとMCEを一貫して減少させる。
特に、比較したメタモデルの中で最大のものは、精度に最小限の影響を伴って、最も実質的なキャリブレーションの改善を示すものである。
さらに、メタモデルを用いた分類器のアンサンブルは、キャリブレーション性能において従来のモデルアンサンブルよりも優れ、パラメータは大幅に少ない。
従来のポストホックキャリブレーション法と比較して,本手法では別個のキャリブレーションデータセットの必要性を排除している。
これらの結果は,モデルキャリブレーションの改善に有効な手法として,メタモデルに基づく分類器アンサンブルの可能性を裏付けるものであり,より信頼性の高いディープラーニングシステムに寄与する。
関連論文リスト
- Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
大規模実験により, 提案手法は, 最先端の深層クラスタリング手法を10倍に越えるだけでなく, クラスタリング精度も大幅に向上した。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - Towards Calibrated Robust Fine-Tuning of Vision-Language Models [97.19901765814431]
本研究は、視覚言語モデルにおいて、OOD精度と信頼性校正の両方を同時に改善する頑健な微調整法を提案する。
OOD分類とOOD校正誤差は2つのIDデータからなる共有上限を持つことを示す。
この知見に基づいて,最小の特異値を持つ制約付きマルチモーダルコントラスト損失を用いて微調整を行う新しいフレームワークを設計する。
論文 参考訳(メタデータ) (2023-11-03T05:41:25Z) - Towards Unbiased Calibration using Meta-Regularization [6.440598446802981]
2つのコンポーネントを持つメタ正則化により、より良い校正モデルを学ぶことを提案する。
ニューラルネットワークを3つのコンピュータビジョンデータセット上で改善し、偏りのないキャリブレーションに正規化するための提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2023-03-27T10:00:50Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - Enabling Calibration In The Zero-Shot Inference of Large Vision-Language
Models [58.720142291102135]
プロンプト、データセット、アーキテクチャといった関連する変数のキャリブレーションを測定し、CLIPによるゼロショット推論が誤校正されていることを見つけます。
学習した1つの温度は、推論データセットにまたがって特定のCLIPモデルごとに一般化され、選択が促される。
論文 参考訳(メタデータ) (2023-03-11T17:14:04Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Mitigating Bias in Calibration Error Estimation [28.46667300490605]
本研究では,ECE_binが真の校正誤差を体系的に過小評価または過大評価できることを示すシミュレーションフレームワークを提案する。
ECE_sweep は、ビンの数をできるだけ多く選択する簡単な代替校正誤差メトリックを提案します。
論文 参考訳(メタデータ) (2020-12-15T23:28:06Z) - Combining Ensembles and Data Augmentation can Harm your Calibration [33.94335246681807]
アンサンブルとデータ拡張を組み合わせることで、モデルのキャリブレーションを損なう可能性がある。
我々は,アンサンブルやデータ拡張のみを個別に使用することよりも,精度とキャリブレーションの利得を高い精度で達成し,両世界のベストを達成できる簡単な補正を提案する。
論文 参考訳(メタデータ) (2020-10-19T21:25:22Z) - Uncertainty Quantification and Deep Ensembles [79.4957965474334]
ディープアンサンブルが必ずしもキャリブレーション特性の改善につながるとは限らないことを示す。
そこで本研究では,混成正規化などの現代的な手法と併用して標準アンサンブル法を用いることで,キャリブレーションの少ないモデルが得られることを示す。
このテキストは、データが不足しているときにディープラーニングを活用するために、最も単純で一般的な3つのアプローチの相互作用を調べる。
論文 参考訳(メタデータ) (2020-07-17T07:32:24Z) - Multi-Class Uncertainty Calibration via Mutual Information
Maximization-based Binning [8.780958735684958]
ポストホック多クラスキャリブレーションは、ディープニューラルネットワーク予測の信頼度推定を提供する一般的なアプローチである。
近年の研究では、広く使われているスケーリング手法がキャリブレーション誤差を過小評価していることが示されている。
類似クラス間で1つのキャリブレータを共有する共有クラスワイド(sCW)キャリブレーション戦略を提案する。
論文 参考訳(メタデータ) (2020-06-23T15:31:59Z) - Mix-n-Match: Ensemble and Compositional Methods for Uncertainty
Calibration in Deep Learning [21.08664370117846]
我々は,Mix-n-Matchキャリブレーション戦略が,データ効率と表現力を大幅に向上することを示す。
標準評価プラクティスの潜在的な問題も明らかにします。
我々の手法はキャリブレーションと評価タスクの両方において最先端のソリューションより優れている。
論文 参考訳(メタデータ) (2020-03-16T17:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。