論文の概要: Improved Trainable Calibration Method for Neural Networks on Medical
Imaging Classification
- arxiv url: http://arxiv.org/abs/2009.04057v1
- Date: Wed, 9 Sep 2020 01:25:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 09:14:12.843374
- Title: Improved Trainable Calibration Method for Neural Networks on Medical
Imaging Classification
- Title(参考訳): 医用画像分類におけるニューラルネットワークの訓練可能な校正法の改良
- Authors: Gongbo Liang, Yu Zhang, Xiaoqin Wang, Nathan Jacobs
- Abstract要約: 経験的に、ニューラルネットワークは、しばしば彼らの予測を誤解し、過度に信ずる。
本稿では,モデルキャリブレーションを大幅に改善しつつ,全体の分類精度を維持する新しいキャリブレーション手法を提案する。
- 参考スコア(独自算出の注目度): 17.941506832422192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have shown that deep neural networks can achieve super-human
performance in a wide range of image classification tasks in the medical
imaging domain. However, these works have primarily focused on classification
accuracy, ignoring the important role of uncertainty quantification.
Empirically, neural networks are often miscalibrated and overconfident in their
predictions. This miscalibration could be problematic in any automatic
decision-making system, but we focus on the medical field in which neural
network miscalibration has the potential to lead to significant treatment
errors. We propose a novel calibration approach that maintains the overall
classification accuracy while significantly improving model calibration. The
proposed approach is based on expected calibration error, which is a common
metric for quantifying miscalibration. Our approach can be easily integrated
into any classification task as an auxiliary loss term, thus not requiring an
explicit training round for calibration. We show that our approach reduces
calibration error significantly across various architectures and datasets.
- Abstract(参考訳): 近年の研究では、深層ニューラルネットワークが医療画像領域の幅広い画像分類タスクにおいて超人的性能を達成できることが示されている。
しかし、これらの研究は主に分類精度に重点を置いており、不確実性定量化の重要な役割を無視している。
経験的に、ニューラルネットワークは、しばしば彼らの予測を誤解し過信される。
この誤校正は自動意思決定システムでは問題となるかも知れないが、ニューラルネットワークの誤校正が重大な治療ミスにつながる可能性がある医療分野に焦点を当てる。
モデルキャリブレーションを大幅に改善しつつ,全体の分類精度を維持する新しいキャリブレーション手法を提案する。
提案手法は,誤校正を定量化するための一般的な指標であるキャリブレーション誤差に基づく。
本手法は,任意の分類タスクに補助損失項として容易に統合できるため,校正のための明示的な訓練ラウンドを必要としない。
提案手法は,様々なアーキテクチャやデータセットのキャリブレーション誤差を大幅に低減することを示す。
関連論文リスト
- Calibrating Deep Neural Network using Euclidean Distance [5.675312975435121]
機械学習では、Focal Lossは、サンプルの分類が難しいことを強調することで、誤分類率を減らすために一般的に使用される。
高校正誤差は予測確率と実際の結果との相違を示し、モデルの信頼性に影響を及ぼす。
本研究では,FCL (Focal Loss) と呼ばれる新しい損失関数を導入する。
論文 参考訳(メタデータ) (2024-10-23T23:06:50Z) - Decoupling Feature Extraction and Classification Layers for Calibrated Neural Networks [3.5284544394841117]
過度にパラメータ化されたDNNアーキテクチャにおける特徴抽出層と分類層の訓練を分離することで、モデルの校正が大幅に向上することを示す。
本稿では,複数の画像分類ベンチマークデータセットに対して,VTおよびWRNアーキテクチャ間のキャリブレーションを改善する手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T11:36:17Z) - On the calibration of neural networks for histological slide-level
classification [47.99822253865054]
我々は、パッチレベルの特徴表現と、それらの分類性能に関するスライドレベルの予測を組み合わせた3つのニューラルネットワークアーキテクチャを比較した。
我々は、トランスフォーマーが分類性能と校正の点で良い結果をもたらすことを観察する。
論文 参考訳(メタデータ) (2023-12-15T11:46:29Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - Multi-Head Multi-Loss Model Calibration [13.841172927454204]
我々は,深層アンサンブルの訓練と推論に要する費用を省く,単純化されたアンサンブルの形式を導入する。
具体的には、各頭部は、重み付きクロスエントロピー損失を最小限に抑えるために訓練されるが、重みは異なる枝によって異なる。
その結果,2つの挑戦データセットにおいて精度を犠牲にすることなく,精度の高いキャリブレーションを達成できることが示唆された。
論文 参考訳(メタデータ) (2023-03-02T09:32:32Z) - DOMINO: Domain-aware Model Calibration in Medical Image Segmentation [51.346121016559024]
現代のディープニューラルネットワークはキャリブレーションが不十分で、信頼性と信頼性を損なう。
本稿では,クラスラベル間のセマンティック・コンフューザビリティと階層的類似性を利用したドメイン認識モデルキャリブレーション手法であるDOMINOを提案する。
その結果,DOMINOを校正したディープニューラルネットワークは,頭部画像分割における非校正モデルや最先端形態計測法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-13T15:31:52Z) - Meta-Calibration: Learning of Model Calibration Using Differentiable
Expected Calibration Error [46.12703434199988]
我々は、キャリブレーション品質を直接最適化できる、期待キャリブレーション誤差(DECE)のための新しい微分可能なサロゲートを導入する。
また、DECEを用いて検証セットの校正を最適化するメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-17T15:47:50Z) - Post-hoc Calibration of Neural Networks by g-Layers [51.42640515410253]
近年、ニューラルネットワークの校正に関する研究が急増している。
負ログライクリーフ(NLL)の最小化は、グローバルな最適化が達成されれば、トレーニングセット上の校正ネットワークにつながることが知られている。
基本ネットワーク (f$) が NLL のグローバルな最適化に繋がらず,追加レイヤ (g$) を追加し,パラメータを$g$ 1 に最適化することで NLL を最小化することで,キャリブレーションネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-06-23T07:55:10Z) - Intra Order-preserving Functions for Calibration of Multi-Class Neural
Networks [54.23874144090228]
一般的なアプローチは、元のネットワークの出力をキャリブレーションされた信頼スコアに変換する、ポストホックキャリブレーション関数を学ぶことである。
以前のポストホックキャリブレーション技術は単純なキャリブレーション機能でしか機能しない。
本稿では,順序保存関数のクラスを表すニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-15T12:57:21Z) - Calibrating Deep Neural Networks using Focal Loss [77.92765139898906]
ミススキャリブレーション(Miscalibration)は、モデルの信頼性と正しさのミスマッチである。
焦点損失は、既に十分に校正されたモデルを学ぶことができることを示す。
ほぼすべてのケースにおいて精度を損なうことなく,最先端のキャリブレーションを達成できることを示す。
論文 参考訳(メタデータ) (2020-02-21T17:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。