論文の概要: Improving Disease Classification Performance and Explainability of Deep
Learning Models in Radiology with Heatmap Generators
- arxiv url: http://arxiv.org/abs/2207.00157v1
- Date: Tue, 28 Jun 2022 13:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-10 11:21:23.750388
- Title: Improving Disease Classification Performance and Explainability of Deep
Learning Models in Radiology with Heatmap Generators
- Title(参考訳): 熱地図発生器を用いた放射線医学における深層学習モデルの分類性能と説明可能性の向上
- Authors: Akino Watanabe, Sara Ketabi, Khashayar (Ernest) Namdar, and Farzad
Khalvati
- Abstract要約: 3つの実験セットがU-Netアーキテクチャを用いて行われ、分類性能が向上した。
最大の改善点は「肺炎」クラスと「CHF」クラスであり、ベースラインモデルは分類に最も苦労した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep learning is widely used in the radiology field, the explainability of
such models is increasingly becoming essential to gain clinicians' trust when
using the models for diagnosis. In this research, three experiment sets were
conducted with a U-Net architecture to improve the classification performance
while enhancing the heatmaps corresponding to the model's focus through
incorporating heatmap generators during training. All of the experiments used
the dataset that contained chest radiographs, associated labels from one of the
three conditions ("normal", "congestive heart failure (CHF)", and "pneumonia"),
and numerical information regarding a radiologist's eye-gaze coordinates on the
images. The paper (A. Karargyris and Moradi, 2021) that introduced this dataset
developed a U-Net model, which was treated as the baseline model for this
research, to show how the eye-gaze data can be used in multi-modal training for
explainability improvement. To compare the classification performances, the 95%
confidence intervals (CI) of the area under the receiver operating
characteristic curve (AUC) were measured. The best method achieved an AUC of
0.913 (CI: 0.860-0.966). The greatest improvements were for the "pneumonia" and
"CHF" classes, which the baseline model struggled most to classify, resulting
in AUCs of 0.859 (CI: 0.732-0.957) and 0.962 (CI: 0.933-0.989), respectively.
The proposed method's decoder was also able to produce probability masks that
highlight the determining image parts in model classifications, similarly as
the radiologist's eye-gaze data. Hence, this work showed that incorporating
heatmap generators and eye-gaze information into training can simultaneously
improve disease classification and provide explainable visuals that align well
with how the radiologist viewed the chest radiographs when making diagnosis.
- Abstract(参考訳): 放射線学分野では深層学習が広く用いられているため, 診断に使用する際, 臨床医の信頼を得るためには, このようなモデルの説明可能性もますます不可欠になりつつある。
本研究では,3つの実験セットをU-Netアーキテクチャを用いて実施し,トレーニング中のヒートマップ生成装置を組み込むことで,モデルの焦点に対応するヒートマップを向上し,分類性能を向上した。
全ての実験では、胸部X線写真、正常な3つの条件のうちの1つ(「正常」、「腐食性心不全(CHF)」、「肺炎」)のラベル、および画像上の放射線技師の視線座標に関する数値情報を含むデータセットを使用していた。
このデータセットを導入した論文 (A. Karargyris and Moradi, 2021) では, マルチモーダルトレーニングにおける視線データを用いた説明可能性向上のためのベースラインモデルとして扱われたU-Netモデルが開発された。
分類性能を比較するため, 受信器動作特性曲線(AUC)の下での領域の95%信頼区間(CI)を測定した。
最良の方法は 0.913 (CI: 0.860-0.966) である。
最も大きな改善は「肺炎」クラスと「chf」クラスで、ベースラインモデルは分類に最も苦労し、それぞれ0.859 (ci: 0.732-0.957) と0.962 (ci: 0.933-0.989) となった。
提案手法のデコーダは、放射線科医のアイガゼデータと同様に、モデル分類における画像部分を決定する確率マスクを作成することも可能であった。
そこで本研究は, 熱マップ生成装置と眼球運動情報をトレーニングに組み込むことで, 疾患の分類と診断時の胸部X線像の観察方法とよく一致した説明可能な視覚を提供することができた。
関連論文リスト
- Peritumoral Expansion Radiomics for Improved Lung Cancer Classification [0.0]
本研究は, 結節の分節化とその周辺が放射線治療による肺癌の分類にどのように影響するかを検討した。
経時的領域の包含は性能を著しく向上させ, 最大で8mmの伸長が得られた。
放射線学的アプローチにより分類精度が向上した。
論文 参考訳(メタデータ) (2024-11-24T23:04:45Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Learning to diagnose common thorax diseases on chest radiographs from
radiology reports in Vietnamese [0.33598755777055367]
ベトナムの放射線学報告から情報を抽出し,胸部X線(CXR)画像の正確なラベルを提供するデータ収集・アノテーションパイプラインを提案する。
このことは、ベトナムの放射線学者や臨床医が、国によって異なる可能性のある内因性診断カテゴリと密接に一致したデータに注釈を付けることで、ベトナムの放射線技師や臨床医に利益をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-09-11T06:06:03Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Deep Learning to Quantify Pulmonary Edema in Chest Radiographs [7.121765928263759]
肺浮腫の重症度を胸部X線写真で分類する機械学習モデルを開発した。
深層学習モデルは、大きな胸部X線写真データセットで訓練された。
論文 参考訳(メタデータ) (2020-08-13T15:45:44Z) - Exploration of Interpretability Techniques for Deep COVID-19
Classification using Chest X-ray Images [10.01138352319106]
5種類のディープラーニングモデル(ResNet18、ResNet34、InceptionV3、InceptionResNetV2、DenseNet161)とそれらのEnsembleは、Chest X-Ray画像を用いて、新型コロナウイルス、肺炎、健康な被験者を分類するために使用されている。
新型コロナウイルスの分類における平均的なMicro-F1スコアは0.66から0.875の範囲で、ネットワークモデルのアンサンブルは0.89である。
論文 参考訳(メタデータ) (2020-06-03T22:55:53Z) - Machine-Learning-Based Multiple Abnormality Prediction with Large-Scale
Chest Computed Tomography Volumes [64.21642241351857]
19,993症例から36,316巻の胸部CTデータセットを収集,解析した。
自由テキストラジオグラフィーレポートから異常ラベルを自動的に抽出するルールベース手法を開発した。
胸部CTボリュームの多臓器・多臓器分類モデルも開発した。
論文 参考訳(メタデータ) (2020-02-12T00:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。