論文の概要: CheXplaining in Style: Counterfactual Explanations for Chest X-rays
using StyleGAN
- arxiv url: http://arxiv.org/abs/2207.07553v1
- Date: Fri, 15 Jul 2022 15:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-18 16:04:08.296669
- Title: CheXplaining in Style: Counterfactual Explanations for Chest X-rays
using StyleGAN
- Title(参考訳): スタイルによるCheXplaining:StyleGANを用いた胸部X線の解析
- Authors: Matan Atad, Vitalii Dmytrenko, Yitong Li, Xinyue Zhang, Matthias
Keicher, Jan Kirschke, Bene Wiestler, Ashkan Khakzar, Nassir Navab
- Abstract要約: 我々は, 胸部X線に対して, 潜伏空間内の特定の潜伏方向を操作することによって, 逆実説明を行う。
我々は, 放射線技師の助けを借りて, 副作用説明の妥当性を臨床的に評価した。
- 参考スコア(独自算出の注目度): 42.4322542603446
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models used in medical image analysis are prone to raising
reliability concerns due to their black-box nature. To shed light on these
black-box models, previous works predominantly focus on identifying the
contribution of input features to the diagnosis, i.e., feature attribution. In
this work, we explore counterfactual explanations to identify what patterns the
models rely on for diagnosis. Specifically, we investigate the effect of
changing features within chest X-rays on the classifier's output to understand
its decision mechanism. We leverage a StyleGAN-based approach (StyleEx) to
create counterfactual explanations for chest X-rays by manipulating specific
latent directions in their latent space. In addition, we propose EigenFind to
significantly reduce the computation time of generated explanations. We
clinically evaluate the relevancy of our counterfactual explanations with the
help of radiologists. Our code is publicly available.
- Abstract(参考訳): 医用画像解析に使用される深層学習モデルは、ブラックボックスの性質から信頼性を高める傾向にある。
これらのブラックボックスモデルに光を当てるために、以前の研究は主に、入力特徴の診断への寄与、すなわち特徴の帰属を識別することに焦点を当てている。
本研究では, モデルが診断に依存するパターンを特定するために, 対物的説明について検討する。
具体的には,胸部X線における特徴変化が分類器の出力に及ぼす影響について検討し,その決定機構を解明する。
StyleGANベースのアプローチ(StyleEx)を利用して,胸部X線に対して,潜伏空間内の特定の潜伏方向を操作することで,反実的な説明を行う。
さらに,生成した説明の計算時間を大幅に短縮するEigenFindを提案する。
我々は, 放射線技師の助けを借りて, 副作用説明の妥当性を臨床的に評価した。
私たちのコードは公開されています。
関連論文リスト
- Explaining Chest X-ray Pathology Models using Textual Concepts [9.67960010121851]
胸部X線(CoCoX)に対する概念的対実的説明法を提案する。
我々は既存の視覚言語モデル(VLM)の結合埋め込み空間を利用して、注釈付きデータセットを必要とせずにブラックボックス分類結果を説明する。
本稿では,本手法が生み出す説明が意味論的に意味を持ち,根底にある病理に忠実であることを示す。
論文 参考訳(メタデータ) (2024-06-30T01:31:54Z) - Position-Guided Prompt Learning for Anomaly Detection in Chest X-Rays [46.78926066405227]
胸部X線異常検出は重要な課題である。
近年,多数の医用画像に基づいて事前トレーニングされたCLIPベースの手法は,ゼロ/フェーショットダウンストリームタスクにおいて顕著な性能を示した。
凍結したCLIPモデルにタスクデータを適応させる位置誘導型プロンプト学習法を提案する。
論文 参考訳(メタデータ) (2024-05-20T12:11:41Z) - I-AI: A Controllable & Interpretable AI System for Decoding
Radiologists' Intense Focus for Accurate CXR Diagnoses [9.260958560874812]
解釈可能な人工知能(I-AI)は、新しく統一された制御可能な解釈可能なパイプラインである。
私たちのI-AIは、放射線科医がどこに見えるか、特定の領域にどのくらい焦点を合わせるか、どの発見を診断するか、という3つの重要な疑問に対処しています。
論文 参考訳(メタデータ) (2023-09-24T04:48:44Z) - Chest X-ray Image Classification: A Causal Perspective [49.87607548975686]
本稿では,CXR分類問題に対処する因果的アプローチを提案し,構造因果モデル(SCM)を構築し,CXR分類に有効な視覚情報を選択するためにバックドア調整を用いる。
実験の結果,提案手法はオープンソースNIH ChestX-ray14の分類性能に優れていた。
論文 参考訳(メタデータ) (2023-05-20T03:17:44Z) - Xplainer: From X-Ray Observations to Explainable Zero-Shot Diagnosis [36.45569352490318]
臨床現場でのゼロショット診断のためのフレームワークであるXplainerを紹介した。
Xplainerは、コントラッシブ・ビジョン言語モデルの分類・記述アプローチをマルチラベル診断タスクに適用する。
我々の結果は、Xplainerが意思決定プロセスをより詳細に理解していることを示唆している。
論文 参考訳(メタデータ) (2023-03-23T16:07:31Z) - The Manifold Hypothesis for Gradient-Based Explanations [55.01671263121624]
勾配に基づく説明アルゴリズムは知覚的に整合した説明を提供する。
特徴属性がデータの接する空間と一致しているほど、知覚的に一致している傾向にあることを示す。
説明アルゴリズムは、その説明をデータ多様体と整合させるよう積極的に努力すべきである。
論文 参考訳(メタデータ) (2022-06-15T08:49:24Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Explaining COVID-19 and Thoracic Pathology Model Predictions by
Identifying Informative Input Features [47.45835732009979]
ニューラルネットワークは胸部X線上の分類および回帰タスクにおいて顕著な性能を示した。
特徴帰属法は、出力予測における入力特徴の重要性を識別する。
本研究では,NIH Chest X-ray8およびBrixIAデータセット上で,人間中心の解釈可能性指標と人間に依存しない特徴重要度指標の両方を用いて評価する。
論文 参考訳(メタデータ) (2021-04-01T11:42:39Z) - Constructing and Evaluating an Explainable Model for COVID-19 Diagnosis
from Chest X-rays [15.664919899567288]
我々は,X線画像の取得がCTスキャンなどの高品質画像の取得よりも容易で安価である状況において,臨床医の診断を支援するモデルの構築に重点を置いている。
深層ニューラルネットワークは、画像データから直接疾患検出のための高い予測モデルを構築することができることが繰り返し示されている。
論文 参考訳(メタデータ) (2020-12-19T21:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。