論文の概要: Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification
- arxiv url: http://arxiv.org/abs/2303.01871v1
- Date: Fri, 3 Mar 2023 12:05:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 15:14:51.734245
- Title: Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification
- Title(参考訳): 注意に基づく気胸分類の解釈性の向上
- Authors: Alessandro Wollek, Robert Graf, Sa\v{s}a \v{C}e\v{c}atka, Nicola Fink,
Theresa Willem, Bastian O. Sabel, Tobias Lasser
- Abstract要約: 視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
- 参考スコア(独自算出の注目度): 52.77024349608834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To investigate chest radiograph (CXR) classification performance of
vision transformers (ViT) and interpretability of attention-based saliency
using the example of pneumothorax classification.
Materials and Methods: In this retrospective study, ViTs were fine-tuned for
lung disease classification using four public data sets: CheXpert, Chest X-Ray
14, MIMIC CXR, and VinBigData. Saliency maps were generated using transformer
multimodal explainability and gradient-weighted class activation mapping
(GradCAM). Classification performance was evaluated on the Chest X-Ray 14,
VinBigData, and SIIM-ACR data sets using the area under the receiver operating
characteristic curve analysis (AUC) and compared with convolutional neural
networks (CNNs). The explainability methods were evaluated with
positive/negative perturbation, sensitivity-n, effective heat ratio,
intra-architecture repeatability and interarchitecture reproducibility. In the
user study, three radiologists classified 160 CXRs with/without saliency maps
for pneumothorax and rated their usefulness.
Results: ViTs had comparable CXR classification AUCs compared with
state-of-the-art CNNs 0.95 (95% CI: 0.943, 0.950) versus 0.83 (95%, CI 0.826,
0.842) on Chest X-Ray 14, 0.84 (95% CI: 0.769, 0.912) versus 0.83 (95% CI:
0.760, 0.895) on VinBigData, and 0.85 (95% CI: 0.847, 0.861) versus 0.87 (95%
CI: 0.868, 0.882) on SIIM ACR. Both saliency map methods unveiled a strong bias
toward pneumothorax tubes in the models. Radiologists found 47% of the
attention-based saliency maps useful and 39% of GradCAM. The attention-based
methods outperformed GradCAM on all metrics.
Conclusion: ViTs performed similarly to CNNs in CXR classification, and their
attention-based saliency maps were more useful to radiologists and outperformed
GradCAM.
- Abstract(参考訳): 目的: 胸部X線写真(CXR)の視覚変換器(ViT)の分類性能と, 気胸分類の例を用いて注意ベース唾液価の解釈可能性を検討すること。
材料と方法:本研究では,CheXpert,Chest X-Ray 14,MIMIC CXR,VinBigDataの4つの公開データセットを用いて,肺疾患分類のための微調整を行った。
変圧器のマルチモーダル説明可能性と勾配重み付きクラスアクティベーションマッピング(GradCAM)を用いてサリエンシマップを作成した。
胸部x線14,vinbigdata,sim-acrデータセットにおいて,auc(accepter operating characteristic curve analysis)下の領域を用いて分類性能を評価し,畳み込みニューラルネットワーク(convolutional neural networks,cnns)と比較した。
提案手法は, 正・負の摂動, 感度n, 有効熱比, 構造内再現性, 構造間再現性を用いて評価した。
ユーザ調査では,3人の放射線技師が肺気胸に対するサリエンシマップ付き160個のCXRを分類し,有用性を評価した。
結果: vits は胸部x線14,084 (95% ci: 0.769, 0.912) と vinbigdata の 0.83 (95% ci: 0.760, 0.895) と 0.885 (95% ci: 0.847, 0.861) と siim acr の 0.87 (95% ci: 0.868, 0.882) と比較して,cxr 分類 aucs と同等であった。
どちらのサリエンシーマップ法もモデル内の気胸管に対して強いバイアスを示した。
放射線学者は注意に基づく健康マップの47%、GradCAMの39%が有用であった。
注意ベースの手法はすべてのメトリクスでGradCAMを上回った。
結論:CXR分類におけるCNNと同様の成績を示し,その注意に基づくサリエンシマップは放射線科医やGradCAMより有用であった。
関連論文リスト
- Comparison of retinal regions-of-interest imaged by OCT for the
classification of intermediate AMD [3.0171643773711208]
269名の中間AMD患者と115名の健常者から15744名のBスキャンを行った。
各サブセットについて、畳み込みニューラルネットワーク(VGG16アーキテクチャに基づいて、ImageNetで事前トレーニングされた)をトレーニングし、テストした。
モデルの性能は, 受信動作特性(AUROC), 精度, 感度, 特異性に基づいて評価した。
論文 参考訳(メタデータ) (2023-05-04T13:48:55Z) - Vision Transformer for Efficient Chest X-ray and Gastrointestinal Image
Classification [2.3293678240472517]
本研究では,多種多様なCNNとトランスフォーマーを用いたデータ拡張手法を提案する。
異なるモダリティから3つの医用画像データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2023-04-23T04:07:03Z) - Learning to diagnose common thorax diseases on chest radiographs from
radiology reports in Vietnamese [0.33598755777055367]
ベトナムの放射線学報告から情報を抽出し,胸部X線(CXR)画像の正確なラベルを提供するデータ収集・アノテーションパイプラインを提案する。
このことは、ベトナムの放射線学者や臨床医が、国によって異なる可能性のある内因性診断カテゴリと密接に一致したデータに注釈を付けることで、ベトナムの放射線技師や臨床医に利益をもたらす可能性がある。
論文 参考訳(メタデータ) (2022-09-11T06:06:03Z) - Improving Disease Classification Performance and Explainability of Deep
Learning Models in Radiology with Heatmap Generators [0.0]
3つの実験セットがU-Netアーキテクチャを用いて行われ、分類性能が向上した。
最大の改善点は「肺炎」クラスと「CHF」クラスであり、ベースラインモデルは分類に最も苦労した。
論文 参考訳(メタデータ) (2022-06-28T13:03:50Z) - A Deep Learning Based Workflow for Detection of Lung Nodules With Chest
Radiograph [0.0]
CXRから肺領域を識別するセグメンテーションモデルを構築し,それを16個のパッチに分割した。
これらのラベル付きパッチを使用して、ディープニューラルネットワーク(DNN)モデルを微調整し、パッチをポジティブまたはネガティブに分類する。
論文 参考訳(メタデータ) (2021-12-19T16:19:46Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Predicting COVID-19 Pneumonia Severity on Chest X-ray with Deep Learning [57.00601760750389]
前頭部胸部X線画像の重症度予測モデルを提案する。
このようなツールは、エスカレーションやケアの非エスカレーションに使用できる新型コロナウイルスの肺感染症の重症度を測定することができる。
論文 参考訳(メタデータ) (2020-05-24T23:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。