論文の概要: Towards generating more interpretable counterfactuals via concept vectors: a preliminary study on chest X-rays
- arxiv url: http://arxiv.org/abs/2506.04058v1
- Date: Wed, 04 Jun 2025 15:23:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.416348
- Title: Towards generating more interpretable counterfactuals via concept vectors: a preliminary study on chest X-rays
- Title(参考訳): 概念ベクトルによるより解釈可能な対物生成に向けて:胸部X線に関する予備的検討
- Authors: Bulat Maksudov, Kathleen Curran, Alessandra Mileo,
- Abstract要約: 我々は、臨床概念を生成モデルの潜在空間にマッピングし、概念活性化ベクトル(CAV)を同定する。
抽出された概念はデータセット全体にわたって安定しており、臨床的に関連する特徴を強調する視覚的説明を可能にする。
胸部X線検査の予備的結果から, 胸部X線検査は, 心筋症などの大きな病態を呈するが, より小さな病態はいまだに困難である。
- 参考スコア(独自算出の注目度): 46.667021835430155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An essential step in deploying medical imaging models is ensuring alignment with clinical knowledge and interpretability. We focus on mapping clinical concepts into the latent space of generative models to identify Concept Activation Vectors (CAVs). Using a simple reconstruction autoencoder, we link user-defined concepts to image-level features without explicit label training. The extracted concepts are stable across datasets, enabling visual explanations that highlight clinically relevant features. By traversing latent space along concept directions, we produce counterfactuals that exaggerate or reduce specific clinical features. Preliminary results on chest X-rays show promise for large pathologies like cardiomegaly, while smaller pathologies remain challenging due to reconstruction limits. Although not outperforming baselines, this approach offers a path toward interpretable, concept-based explanations aligned with clinical knowledge.
- Abstract(参考訳): 医療画像モデルの展開における重要なステップは、臨床知識と解釈可能性との整合性を確保することである。
本稿では,臨床概念を生成モデルの潜在空間にマッピングして,概念活性化ベクトル(CAV)を同定する。
簡単な再構成オートエンコーダを用いて、明示的なラベル学習をすることなく、ユーザ定義概念と画像レベルの特徴をリンクする。
抽出された概念はデータセット全体にわたって安定しており、臨床的に関連する特徴を強調する視覚的説明を可能にする。
概念方向に沿って潜伏空間をトラバースすることにより、特定の臨床特徴を誇張したり減らしたりする反事実を生み出す。
胸部X線検査の予備的結果から, 胸部X線検査は, 心内膜のような大きな病理像を呈するが, 再建限界のため, より小さな病理像はいまだに困難である。
ベースラインを上回りはしないが、本手法は臨床知識に則った解釈可能な概念に基づく説明への道筋を提供する。
関連論文リスト
- Explaining Chest X-ray Pathology Models using Textual Concepts [9.67960010121851]
胸部X線(CoCoX)に対する概念的対実的説明法を提案する。
我々は既存の視覚言語モデル(VLM)の結合埋め込み空間を利用して、注釈付きデータセットを必要とせずにブラックボックス分類結果を説明する。
本稿では,本手法が生み出す説明が意味論的に意味を持ち,根底にある病理に忠実であることを示す。
論文 参考訳(メタデータ) (2024-06-30T01:31:54Z) - Concept-Attention Whitening for Interpretable Skin Lesion Diagnosis [7.5422729055429745]
皮膚病変診断のための新しい概念認識白化(CAW)フレームワークを提案する。
前枝では,CAW層を挿入した畳み込みニューラルネットワーク(CNN)を訓練し,皮膚病変の診断を行った。
後者のブランチでは、マトリクスはコンセプトアテンションマスクのガイダンスに基づいて計算される。
論文 参考訳(メタデータ) (2024-04-09T04:04:50Z) - MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment [4.861768967055006]
本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:45:01Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Cross-modal Clinical Graph Transformer for Ophthalmic Report Generation [116.87918100031153]
眼科報告生成(ORG)のためのクロスモーダルな臨床グラフ変換器(CGT)を提案する。
CGTは、デコード手順を駆動する事前知識として、臨床関係を視覚特徴に注入する。
大規模FFA-IRベンチマークの実験は、提案したCGTが従来のベンチマーク手法より優れていることを示した。
論文 参考訳(メタデータ) (2022-06-04T13:16:30Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。