論文の概要: Evaluating Explainable AI on a Multi-Modal Medical Imaging Task: Can
Existing Algorithms Fulfill Clinical Requirements?
- arxiv url: http://arxiv.org/abs/2203.06487v2
- Date: Mon, 16 Oct 2023 16:53:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 07:09:07.070675
- Title: Evaluating Explainable AI on a Multi-Modal Medical Imaging Task: Can
Existing Algorithms Fulfill Clinical Requirements?
- Title(参考訳): マルチモーダル医療画像タスクにおける説明可能なAIの評価:既存のアルゴリズムは臨床要件を満たすか?
- Authors: Weina Jin, Xiaoxiao Li, Ghassan Hamarneh
- Abstract要約: Heatmapは、AIモデルの予測の重要な特徴を強調する、説明の一形態である。
マルチモーダルな医用画像の意思決定において,ヒートマップがどの程度優れているかは分かっていない。
本稿では,この臨床的に重要であるが技術的に無視される問題に対処するために,MSFI(Modality-specific feature importance)尺度を提案する。
- 参考スコア(独自算出の注目度): 42.75635888823057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Being able to explain the prediction to clinical end-users is a necessity to
leverage the power of artificial intelligence (AI) models for clinical decision
support. For medical images, a feature attribution map, or heatmap, is the most
common form of explanation that highlights important features for AI models'
prediction. However, it is unknown how well heatmaps perform on explaining
decisions on multi-modal medical images, where each image modality or channel
visualizes distinct clinical information of the same underlying biomedical
phenomenon. Understanding such modality-dependent features is essential for
clinical users' interpretation of AI decisions. To tackle this clinically
important but technically ignored problem, we propose the modality-specific
feature importance (MSFI) metric. It encodes clinical image and explanation
interpretation patterns of modality prioritization and modality-specific
feature localization. We conduct a clinical requirement-grounded, systematic
evaluation using computational methods and a clinician user study. Results show
that the examined 16 heatmap algorithms failed to fulfill clinical requirements
to correctly indicate AI model decision process or decision quality. The
evaluation and MSFI metric can guide the design and selection of XAI algorithms
to meet clinical requirements on multi-modal explanation.
- Abstract(参考訳): 臨床エンドユーザに予測を説明できることは、ai(artificial intelligence, 人工知能)モデルの力を臨床決定支援に活用する必要性である。
医療画像では、機能帰属マップ(feature attribution map、heatmap)は、aiモデルの予測において重要な特徴を強調する最も一般的な説明形式である。
しかし、ヒートマップがマルチモーダルな医療画像の意思決定にどの程度効果があるかは分かっておらず、それぞれの画像のモダリティやチャネルが、同じ基礎となるバイオメディカル現象の異なる臨床情報を視覚化している。
このようなモダリティに依存した特徴を理解することは、臨床ユーザーのAI決定の解釈に不可欠である。
臨床的に重要な問題であるが技術的に無視される問題に対処するために,モーダリティ特異的特徴重要度(MSFI)尺度を提案する。
モダリティ優先順位付けおよびモダリティ特異的特徴ローカライゼーションの臨床的画像および解釈パターンを符号化する。
我々は,計算手法と臨床ユーザスタディを用いた臨床要件ベースで体系的な評価を行う。
その結果、16のヒートマップアルゴリズムは、AIモデル決定プロセスや意思決定品質を正しく示すための臨床要件を満たすことができなかった。
評価基準とMSFI基準はXAIアルゴリズムの設計と選択を誘導し,マルチモーダルな説明に対する臨床要件を満たす。
関連論文リスト
- Clinical Evaluation of Medical Image Synthesis: A Case Study in Wireless Capsule Endoscopy [63.39037092484374]
本研究は,人工知能(AI)モデルを用いた医用合成データ生成の臨床評価に焦点を当てた。
本論文は,a) 医用専門家による合成画像の体系的評価のためのプロトコルを提示し,b) 高分解能WCE画像合成のための新しい変分オートエンコーダモデルであるTIDE-IIを評価する。
その結果、TIDE-IIは臨床的に関連性のあるWCE画像を生成し、データの不足に対処し、診断ツールの強化に役立つことがわかった。
論文 参考訳(メタデータ) (2024-10-31T19:48:50Z) - Integrating Clinical Knowledge into Concept Bottleneck Models [18.26357481872999]
概念ボトルネックモデル(CBM)は最終出力を予測する前に人間の解釈可能な概念を予測する。
臨床知識の統合によるCBMの洗練, 臨床医の意思決定プロセスとの整合性の向上を提案する。
医療画像の2つのデータセット(白血球と皮膚画像)にアプローチを検証した。
論文 参考訳(メタデータ) (2024-07-09T07:03:42Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - A Transformer-based representation-learning model with unified
processing of multimodal input for clinical diagnostics [63.106382317917344]
本稿では,マルチモーダル入力を統一的に処理する臨床診断支援として,トランスフォーマーを用いた表現学習モデルについて報告する。
統一モデルは, 肺疾患の同定において, 画像のみのモデル, 非統一型マルチモーダル診断モデルより優れていた。
論文 参考訳(メタデータ) (2023-06-01T16:23:47Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Morphology-Aware Interactive Keypoint Estimation [32.52024944963992]
医学的画像に基づく診断は、しばしば解剖学的キーポイントのマニュアルアノテーションを含む。
本稿では,ユーザインタラクションシステムを通じて解剖学的キーポイントを自動的に検出し,精査する,新しいディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-15T09:27:14Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - One Map Does Not Fit All: Evaluating Saliency Map Explanation on
Multi-Modal Medical Images [22.672569495620895]
医用画像では、サリエンシマップが最も一般的な説明形式である。
評価の結果,ほとんどのサリエンシマップ手法は一般にモダリティの重要情報を収集するが,そのほとんどはモダリティに特有な重要な特徴を連続的かつ正確に強調することができなかった。
論文 参考訳(メタデータ) (2021-07-11T13:43:02Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。