論文の概要: Beyond Accuracy: Reliability and Uncertainty Estimation in Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2603.10731v1
- Date: Wed, 11 Mar 2026 13:05:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.953339
- Title: Beyond Accuracy: Reliability and Uncertainty Estimation in Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークにおける信頼性と不確実性推定
- Authors: Sanne Ruijs, Alina Kosiakova, Farrukh Javed,
- Abstract要約: ディープニューラルネットワーク(DNN)は、幅広い科学的、実用的な応用に不可欠なものとなっている。
その正確さにもかかわらず、DNNはしばしばキャリブレーションが悪く、しばしば不正確な予測に過度に自信ある確率を割り当てる。
この制限は、信頼性の高い不確実性推定を提供する統合メカニズムの必要性の高まりを浮き彫りにしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have become integral to a wide range of scientific and practical applications due to their flexibility and strong predictive performance. Despite their accuracy, however, DNNs frequently exhibit poor calibration, often assigning overly confident probabilities to incorrect predictions. This limitation underscores the growing need for integrated mechanisms that provide reliable uncertainty estimation. In this article, we compare two prominent approaches for uncertainty quantification: a Bayesian approximation via Monte Carlo Dropout and the nonparametric Conformal Prediction framework. Both methods are assessed using two convolutional neural network architectures; H-CNN VGG16 and GoogLeNet, trained on the Fashion-MNIST dataset. The empirical results show that although H-CNN VGG16 attains higher predictive accuracy, it tends to exhibit pronounced overconfidence, whereas GoogLeNet yields better-calibrated uncertainty estimates. Conformal Prediction additionally demonstrates consistent validity by producing statistically guaranteed prediction sets, highlighting its practical value in high-stakes decision-making contexts. Overall, the findings emphasize the importance of evaluating model performance beyond accuracy alone and contribute to the development of more reliable and trustworthy deep learning systems.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、柔軟性と強力な予測性能のために、幅広い科学的、実用的な応用に不可欠なものになっている。
しかし、その正確さにもかかわらず、DNNはしばしばキャリブレーションが悪く、しばしば不正確な予測に過度に自信のある確率を割り当てる。
この制限は、信頼性の高い不確実性推定を提供する統合メカニズムの必要性の高まりを浮き彫りにしている。
本稿では,モンテカルロ・ドロップアウトによるベイズ近似と非パラメトリックコンフォーマル予測フレームワークという,不確実性定量化のための2つの顕著なアプローチを比較する。
どちらの手法も、Fashion-MNISTデータセットに基づいてトレーニングされたH-CNN VGG16とGoogLeNetの2つの畳み込みニューラルネットワークアーキテクチャを使用して評価される。
実験の結果,H-CNN VGG16の精度は高いが,GoogLeNetの精度は高い。
コンフォーマル予測はまた、統計的に保証された予測セットを生成し、高い意思決定コンテキストにおけるその実用的価値を強調することによって、一貫した妥当性を示す。
全体としては、モデル性能の評価は正確性に留まらず重要であり、より信頼性が高く信頼性の高いディープラーニングシステムの開発に寄与する。
関連論文リスト
- Uncertainty-Aware Graph Neural Networks: A Multi-Hop Evidence Fusion Approach [55.43914153271912]
グラフニューラルネットワーク(GNN)は、グラフ構造とノード機能を統合することにより、グラフ表現学習に優れる。
既存のGNNでは、モデルの深さによって異なるクラス確率の不確実性を考慮することができず、現実のシナリオでは信頼できない、リスクの高い予測が生じる。
本稿では,信頼に値する予測を達成し,ノード分類精度を高め,誤予測のリスクを明らかにするために,新しいEvidence Fusing Graph Neural Network (EFGNN)を提案する。
論文 参考訳(メタデータ) (2025-06-16T03:59:38Z) - Quantifying Calibration Error in Neural Networks Through Evidence-Based Theory [1.9832598896178517]
本稿では、予測エラー(ECE)の評価に主観的論理を組み込むことにより、ニューラルネットワークの信頼性を定量化する新しい枠組みを提案する。
我々は,MNISTおよびCIFAR-10データセットを用いた実験により,信頼性が向上したことを示す。
提案されたフレームワークは、医療や自律システムといったセンシティブな分野における潜在的な応用を含む、AIモデルのより解釈可能でニュアンスな評価を提供する。
論文 参考訳(メタデータ) (2024-10-31T23:54:21Z) - Beyond Uncertainty Quantification: Learning Uncertainty for Trust-Informed Neural Network Decisions - A Case Study in COVID-19 Classification [7.383605511698832]
信頼性の高い不確実性定量化は、医学的診断のような高い評価の応用において重要である。
従来の不確実性定量化法は、予測を自信または不確実性として分類するために、予め定義された信頼しきい値に依存する。
このアプローチは、しきい値を超える予測は信頼に値するが、それ以下の予測は信頼性の高い予測の正確性を明確に評価することなく不確実であると仮定する。
本研究では,予測の信頼度を学習することで,従来の不確実性定量化を拡張した不確実性認識型ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T04:20:12Z) - Uncertainty in Graph Neural Networks: A Survey [47.785948021510535]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。