論文の概要: A Comparative Study of Confidence Calibration in Deep Learning: From
Computer Vision to Medical Imaging
- arxiv url: http://arxiv.org/abs/2206.08833v1
- Date: Fri, 17 Jun 2022 15:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 14:31:00.348524
- Title: A Comparative Study of Confidence Calibration in Deep Learning: From
Computer Vision to Medical Imaging
- Title(参考訳): 深層学習における信頼度校正の比較研究:コンピュータビジョンから医用画像まで
- Authors: Riqiang Gao, Thomas Li, Yucheng Tang, Zhoubing Xu, Michael Kammer,
Sanja L. Antic, Kim Sandler, Fabien Moldonado, Thomas A. Lasko, Bennett
Landman
- Abstract要約: ディープラーニング予測モデルは、医療を含む課題領域におけるキャリブレーションの低下に悩まされることが多い。
コンピュータビジョンから医用画像への信頼性キャリブレーションを4つのハイインパクトキャリブレーションモデルとの比較研究により橋渡しする。
- 参考スコア(独自算出の注目度): 3.7292013802839152
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although deep learning prediction models have been successful in the
discrimination of different classes, they can often suffer from poor
calibration across challenging domains including healthcare. Moreover, the
long-tail distribution poses great challenges in deep learning classification
problems including clinical disease prediction. There are approaches proposed
recently to calibrate deep prediction in computer vision, but there are no
studies found to demonstrate how the representative models work in different
challenging contexts. In this paper, we bridge the confidence calibration from
computer vision to medical imaging with a comparative study of four high-impact
calibration models. Our studies are conducted in different contexts (natural
image classification and lung cancer risk estimation) including in balanced vs.
imbalanced training sets and in computer vision vs. medical imaging. Our
results support key findings: (1) We achieve new conclusions which are not
studied under different learning contexts, e.g., combining two calibration
models that both mitigate the overconfident prediction can lead to
under-confident prediction, and simpler calibration models from the computer
vision domain tend to be more generalizable to medical imaging. (2) We
highlight the gap between general computer vision tasks and medical imaging
prediction, e.g., calibration methods ideal for general computer vision tasks
may in fact damage the calibration of medical imaging prediction. (3) We also
reinforce previous conclusions in natural image classification settings. We
believe that this study has merits to guide readers to choose calibration
models and understand gaps between general computer vision and medical imaging
domains.
- Abstract(参考訳): ディープラーニング予測モデルは、異なるクラスの識別に成功しているが、医療を含む課題領域におけるキャリブレーションの低下に悩まされることがしばしばある。
さらに, 長期分布は, 臨床疾患予測を含む深層学習の分類問題において大きな課題となる。
近年、コンピュータビジョンの深い予測を校正する手法が提案されているが、代表モデルが異なる状況下でどのように動作するかを実証する研究はない。
本稿では,コンピュータビジョンから医用画像への信頼度校正と,4つのハイインパクト校正モデルの比較研究とを橋渡しする。
本研究は,非平衡トレーニングセットとコンピュータビジョンと医用画像とを含む,さまざまな文脈(自然画像分類と肺がんリスク推定)で実施されている。
その結果,(1) 異なる学習環境下では研究されない新たな結論,例えば,過信予測を緩和する2つのキャリブレーションモデルを組み合わせることにより,信頼度の低い予測が得られ,コンピュータビジョン領域からの単純なキャリブレーションモデルの方が医用画像により一般化しやすい傾向が示唆された。
2)一般のコンピュータビジョンタスクと医用画像予測のギャップ,例えば,一般のコンピュータビジョンタスクに適した校正手法は,実際に医用画像予測の校正を損なう可能性がある。
(3) 自然画像分類設定における過去の結論を補強する。
本研究は,一般コンピュータビジョンと医用画像領域のギャップを理解するために,キャリブレーションモデルの選択を読者に指導する効果があると信じている。
関連論文リスト
- PRECISe : Prototype-Reservation for Explainable Classification under Imbalanced and Scarce-Data Settings [0.0]
PreCISeは,3つの課題すべてに対処するために,簡潔に構築された説明可能な設計モデルである。
PreCISeは、マイノリティクラスへのデータ効率的な一般化において、現在の最先端メソッドよりも優れています。
ケーススタディでは、モデルが容易に解釈可能な予測を生成する能力を強調している。
論文 参考訳(メタデータ) (2024-08-11T12:05:32Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Understanding Calibration of Deep Neural Networks for Medical Image
Classification [3.461503547789351]
本研究では,異なるトレーニング体制下でのモデル性能とキャリブレーションについて検討する。
本研究は,完全教師付きトレーニングと,移動学習を伴わない回転型自己教師方式について考察する。
本研究では,重み分布や学習表現の類似性などの要因が,モデルで観測されるキャリブレーション傾向と相関していることを明らかにする。
論文 参考訳(メタデータ) (2023-09-22T18:36:07Z) - Calibration of Neural Networks [77.34726150561087]
本稿では,ニューラルネットワークの文脈における信頼性校正問題について調査する。
我々は,問題文,キャリブレーション定義,評価に対する異なるアプローチについて分析する。
実験実験では、様々なデータセットとモデルをカバーし、異なる基準に従って校正方法を比較する。
論文 参考訳(メタデータ) (2023-03-19T20:27:51Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - Learning Discriminative Representation via Metric Learning for
Imbalanced Medical Image Classification [52.94051907952536]
本稿では,特徴抽出器がより識別的な特徴表現を抽出するのを助けるために,2段階フレームワークの第1段階にメトリック学習を組み込むことを提案する。
主に3つの医用画像データセットを用いて実験したところ、提案手法は既存の1段階と2段階のアプローチより一貫して優れていた。
論文 参考訳(メタデータ) (2022-07-14T14:57:01Z) - Interpretable Mammographic Image Classification using Cased-Based
Reasoning and Deep Learning [20.665935997959025]
マンモグラフィーのケースベース推論を用いた新しい解釈型ニューラルネットワークアルゴリズムを提案する。
我々のネットワークは悪性度予測と、その予測を既知の医学的特徴を用いて説明する。
論文 参考訳(メタデータ) (2021-07-12T17:42:09Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Advancing diagnostic performance and clinical usability of neural
networks via adversarial training and dual batch normalization [2.1699022621790736]
6人の放射線学者がX線、CT、磁気共鳴画像スキャンのデータセットにおける塩分濃度マップの解釈可能性を評価する。
その結果, 十分大きなデータセットと二重バッチノルムを用いた場合, 逆学習モデルの精度は標準モデルに等しいことがわかった。
論文 参考訳(メタデータ) (2020-11-25T20:41:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。