論文の概要: Explainability Through Human-Centric Design for XAI in Lung Cancer Detection
- arxiv url: http://arxiv.org/abs/2505.09755v2
- Date: Fri, 23 May 2025 10:43:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 15:51:03.002294
- Title: Explainability Through Human-Centric Design for XAI in Lung Cancer Detection
- Title(参考訳): 肺癌検出におけるXAIの人体設計による説明可能性
- Authors: Amy Rafferty, Rishi Ramaesh, Ajitha Rajan,
- Abstract要約: XpertXAI(XpertXAI)について検討した。
XpertXAIは、複数の肺疾患を検出するためにスケーリングしながら、人間の解釈可能な臨床概念を保存する。
既存の手法では臨床的に意味のある説明が得られないことが多い。
- 参考スコア(独自算出の注目度): 2.380494879018844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models have shown promise in lung pathology detection from chest X-rays, but widespread clinical adoption remains limited due to opaque model decision-making. In prior work, we introduced ClinicXAI, a human-centric, expert-guided concept bottleneck model (CBM) designed for interpretable lung cancer diagnosis. We now extend that approach and present XpertXAI, a generalizable expert-driven model that preserves human-interpretable clinical concepts while scaling to detect multiple lung pathologies. Using a high-performing InceptionV3-based classifier and a public dataset of chest X-rays with radiology reports, we compare XpertXAI against leading post-hoc explainability methods and an unsupervised CBM, XCBs. We assess explanations through comparison with expert radiologist annotations and medical ground truth. Although XpertXAI is trained for multiple pathologies, our expert validation focuses on lung cancer. We find that existing techniques frequently fail to produce clinically meaningful explanations, omitting key diagnostic features and disagreeing with radiologist judgments. XpertXAI not only outperforms these baselines in predictive accuracy but also delivers concept-level explanations that better align with expert reasoning. While our focus remains on explainability in lung cancer detection, this work illustrates how human-centric model design can be effectively extended to broader diagnostic contexts - offering a scalable path toward clinically meaningful explainable AI in medical diagnostics.
- Abstract(参考訳): 深層学習モデルは胸部X線による肺病理診断において有望であるが、不透明なモデル決定のために広く臨床応用が限られている。
そこで我々は,ヒト中心型,専門家主導型概念ボトルネックモデル(CBM)を肺がん診断の解釈のために導入した。
我々は、そのアプローチを拡張し、XpertXAIを提示する。XpertXAIは、人間の解釈可能な臨床概念を保存しつつ、スケーリングして複数の肺病理を検知する、汎用可能なエキスパート駆動モデルである。
InceptionV3をベースとしたハイパフォーマンスな分類器と胸部X線画像の公開データセットを用いて,XpertXAIを先進的なポストホック説明可能性法と教師なしCBM,XCBsと比較した。
専門的放射線医のアノテーションと医学的根拠の真実との比較により, 説明の質を評価する。
XpertXAIは, 多発性疾患に対して訓練されているが, 専門的検証は肺癌に焦点をあてる。
既存の手法では臨床的に有意な説明が得られず,重要な診断的特徴を省略し,放射線科医の判断に異を唱えることが多かった。
XpertXAIは、これらのベースラインを予測精度で上回るだけでなく、専門家の推論に合わせた概念レベルの説明も提供する。
肺がん検出における説明可能性に焦点が当てられているが、この研究は、ヒト中心のモデル設計を、より広い診断コンテキストに効果的に拡張する方法を示しており、医療診断における臨床的に意味のあるAIへのスケーラブルな道を提供する。
関連論文リスト
- Medical AI for Early Detection of Lung Cancer: A Survey [11.90341994990241]
肺がんは世界中で致死率と死亡率の主要な原因の1つである。
コンピュータ支援診断システム(CAD)は肺結節の検出と分類に有効であることが証明されている。
深層学習アルゴリズムは肺結節解析の精度と効率を大幅に改善した。
論文 参考訳(メタデータ) (2024-10-18T17:45:42Z) - Leveraging Expert Input for Robust and Explainable AI-Assisted Lung Cancer Detection in Chest X-rays [2.380494879018844]
本研究では,InceptionV3に基づく高機能肺癌検出モデルの解釈可能性とロバスト性について検討した。
我々は,概念ボトルネック手法を活用した専門家主導のアプローチであるClinicXAIを開発する。
論文 参考訳(メタデータ) (2024-03-28T14:15:13Z) - Expert Uncertainty and Severity Aware Chest X-Ray Classification by
Multi-Relationship Graph Learning [48.29204631769816]
我々はCXRレポートから病気ラベルを再抽出し,重症度と分類の不確実性を考慮し,より現実的になるようにした。
以上の結果から, 疾患の重症度と不確実性を考慮したモデルが, 従来の最先端手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-09-06T19:19:41Z) - Deep Reinforcement Learning Framework for Thoracic Diseases
Classification via Prior Knowledge Guidance [49.87607548975686]
関連疾患に対するラベル付きデータの不足は、正確な診断にとって大きな課題となる。
本稿では,診断エージェントの学習を指導するための事前知識を導入する,新しい深層強化学習フレームワークを提案する。
提案手法の性能はNIHX-ray 14とCheXpertデータセットを用いて実証した。
論文 参考訳(メタデータ) (2023-06-02T01:46:31Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - CoRSAI: A System for Robust Interpretation of CT Scans of COVID-19
Patients Using Deep Learning [133.87426554801252]
我々は,深部畳み込み神経網のアンサンブルを用いた肺CTスキャンのセグメンテーションによるアプローチを採用した。
本モデルを用いて, 病変の分類, 患者の動態の評価, 病変による肺の相対体積の推定, 肺の損傷ステージの評価が可能となった。
論文 参考訳(メタデータ) (2021-05-25T12:06:55Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Automatic Generation of Interpretable Lung Cancer Scoring Models from
Chest X-Ray Images [9.525711971667679]
肺がんは世界中でがんの死因となっている。
深層学習技術は肺がんの診断に有効である。
これらの技術は、まだ医療コミュニティによって承認され、採用されていない。
論文 参考訳(メタデータ) (2020-12-10T04:11:59Z) - Deep Learning for Automatic Pneumonia Detection [72.55423549641714]
肺炎は小児の主要な死因であり、世界でも最多死亡率の1つである。
コンピュータ支援診断システムは診断精度を向上させる可能性を示した。
本研究では, 単発検出, 圧縮励起深部畳み込みニューラルネットワーク, 拡張, マルチタスク学習に基づく肺炎領域検出のための計算手法を開発した。
論文 参考訳(メタデータ) (2020-05-28T10:54:34Z) - Attention U-Net Based Adversarial Architectures for Chest X-ray Lung
Segmentation [0.0]
本稿では,診断パイプラインにおける基礎的,しかし困難な課題である肺分節に対する新しい深層学習手法を提案する。
本手法では, 逆批判モデルとともに, 最先端の完全畳み込みニューラルネットワークを用いる。
これは、患者プロファイルの異なる未確認データセットのCXRイメージによく当てはまり、JSRTデータセットの最終的なDSCRは97.5%に達した。
論文 参考訳(メタデータ) (2020-03-23T14:45:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。