論文の概要: Explaining Chest X-ray Pathology Models using Textual Concepts
- arxiv url: http://arxiv.org/abs/2407.00557v2
- Date: Tue, 22 Oct 2024 15:50:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:52:50.118754
- Title: Explaining Chest X-ray Pathology Models using Textual Concepts
- Title(参考訳): テキスト概念を用いた胸部X線病理モデルの記述
- Authors: Vijay Sadashivaiah, Pingkun Yan, James A. Hendler,
- Abstract要約: 胸部X線(CoCoX)に対する概念的対実的説明法を提案する。
我々は既存の視覚言語モデル(VLM)の結合埋め込み空間を利用して、注釈付きデータセットを必要とせずにブラックボックス分類結果を説明する。
本稿では,本手法が生み出す説明が意味論的に意味を持ち,根底にある病理に忠実であることを示す。
- 参考スコア(独自算出の注目度): 9.67960010121851
- License:
- Abstract: Deep learning models have revolutionized medical imaging and diagnostics, yet their opaque nature poses challenges for clinical adoption and trust. Amongst approaches to improve model interpretability, concept-based explanations aim to provide concise and human-understandable explanations of any arbitrary classifier. However, such methods usually require a large amount of manually collected data with concept annotation, which is often scarce in the medical domain. In this paper, we propose Conceptual Counterfactual Explanations for Chest X-ray (CoCoX), which leverages the joint embedding space of an existing vision-language model (VLM) to explain black-box classifier outcomes without the need for annotated datasets. Specifically, we utilize textual concepts derived from chest radiography reports and a pre-trained chest radiography-based VLM to explain three common cardiothoracic pathologies. We demonstrate that the explanations generated by our method are semantically meaningful and faithful to underlying pathologies.
- Abstract(参考訳): 深層学習モデルは、医療画像と診断に革命をもたらしたが、その不透明な性質は、臨床導入と信頼性に課題をもたらしている。
モデル解釈可能性を改善するアプローチの中で、概念に基づく説明は任意の分類器の簡潔で人間の理解可能な説明を提供することを目的としている。
しかし、そのような手法は通常、医療領域では不十分な概念アノテーションを伴う大量の手作業によるデータを必要とする。
本稿では、既存の視覚言語モデル(VLM)の結合埋め込み空間を利用して、注釈付きデータセットを必要とせずにブラックボックス分類結果を説明する、Chest X-ray(CoCoX)の概念的対数説明法を提案する。
具体的には,胸部X線撮影と胸部X線撮影を併用したVLMを用いて,一般的な心胸部疾患の3つを解説する。
本稿では,本手法が生み出す説明が意味論的に意味を持ち,根底にある病理に忠実であることを示す。
関連論文リスト
- Aligning Human Knowledge with Visual Concepts Towards Explainable Medical Image Classification [8.382606243533942]
本稿では,説明可能な言語インフォームド基準に基づく診断に向けて,シンプルで効果的なフレームワークであるExplicdを紹介した。
事前訓練された視覚言語モデルを活用することで、Explicdはこれらの基準を知識アンカーとして埋め込み空間に注入する。
最終的な診断結果は、符号化された視覚概念とテキストの基準埋め込みとの類似度スコアに基づいて決定される。
論文 参考訳(メタデータ) (2024-06-08T23:23:28Z) - Towards Concept-based Interpretability of Skin Lesion Diagnosis using
Vision-Language Models [0.0]
視覚言語モデルを用いて,多数の概念アノテーションを用いたサンプルへの依存を緩和できることを示す。
特に,概念に基づく記述をテキスト埋め込みとして用いて,CLIPを皮膚病変分類の下流タスクに適用するための埋め込み学習戦略を提案する。
論文 参考訳(メタデータ) (2023-11-24T08:31:34Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - CheXplaining in Style: Counterfactual Explanations for Chest X-rays
using StyleGAN [42.4322542603446]
我々は, 胸部X線に対して, 潜伏空間内の特定の潜伏方向を操作することによって, 逆実説明を行う。
我々は, 放射線技師の助けを借りて, 副作用説明の妥当性を臨床的に評価した。
論文 参考訳(メタデータ) (2022-07-15T15:51:08Z) - Explaining Chest X-ray Pathologies in Natural Language [46.11255491490225]
医用画像上での予測を正当化するために,自然言語説明(NLE)を生成するタスクを導入する。
NLEは人間フレンドリで包括的であり、本質的に説明可能なモデルのトレーニングを可能にする。
NLEを用いた最初の大規模医用画像データセットMIMIC-NLEを紹介する。
論文 参考訳(メタデータ) (2022-07-09T22:09:37Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Using Causal Analysis for Conceptual Deep Learning Explanation [11.552000005640203]
理想的な説明はドメインエキスパートの意思決定プロセスに似ている。
胸部X線像を伴って放射線検査を行い,概念を定義した。
我々は、発見されたすべての概念を簡単な決定規則に変換するために、低深度決定木を構築します。
論文 参考訳(メタデータ) (2021-07-10T00:01:45Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。