論文の概要: Guidelines and evaluation for clinical explainable AI on medical image
analysis
- arxiv url: http://arxiv.org/abs/2202.10553v1
- Date: Wed, 16 Feb 2022 19:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-27 17:33:27.972104
- Title: Guidelines and evaluation for clinical explainable AI on medical image
analysis
- Title(参考訳): 医用画像解析における臨床説明可能なAIのガイドラインと評価
- Authors: Weina Jin, Xiaoxiao Li, Mostafa Fatehi, Ghassan Hamarneh
- Abstract要約: 我々は,臨床XAIを最適化するために必要な5つの基準からなる臨床XAIガイドラインを提案する。
選択された説明形式では、その特定のXAI技術は、G3の真性、G4のインフォーマルな妥当性、G5の効率に最適化されるべきである。
臨床用XAIガイドラインを用いて臨床用XAIの設計と評価を行った。
- 参考スコア(独自算出の注目度): 22.601774762808247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence (XAI) is essential for enabling clinical
users to get informed decision support from AI and comply with evidence-based
medical practice. Applying XAI in clinical settings requires proper evaluation
criteria to ensure the explanation technique is both technically sound and
clinically useful, but specific support is lacking to achieve this goal. To
bridge the research gap, we propose the Clinical XAI Guidelines that consist of
five criteria a clinical XAI needs to be optimized for. The guidelines
recommend choosing an explanation form based on Guideline 1 (G1)
Understandability and G2 Clinical relevance. For the chosen explanation form,
its specific XAI technique should be optimized for G3 Truthfulness, G4
Informative plausibility, and G5 Computational efficiency.
Following the guidelines, we conducted a systematic evaluation on a novel
problem of multi-modal medical image explanation with two clinical tasks, and
proposed new evaluation metrics accordingly. The evaluated 16 commonly-used
heatmap XAI techniques were not suitable for clinical use due to their failure
in \textbf{G3} and \textbf{G4}. Our evaluation demonstrated the use of Clinical
XAI Guidelines to support the design and evaluation for clinically viable XAI.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、臨床ユーザーがAIから情報提供を受け、エビデンスベースの医療実践に従えるようにするために不可欠である。
臨床環境でのXAIの適用には、説明技法が技術的に健全かつ臨床的に有用であることを保証するための適切な評価基準が必要であるが、この目標を達成するには特定の支援が欠如している。
研究ギャップを埋めるため,我々は臨床xaiを最適化する必要がある5つの基準からなる臨床xaiガイドラインを提案する。
ガイドラインは、ガイドライン1(g1)の理解性とg2の臨床関連性に基づいて説明フォームを選択することを推奨する。
選択された説明形式では、その特定のXAI技術は、G3の真性、G4のインフォーマルな可算性、G5の計算効率に最適化されるべきである。
ガイドラインに従い, 2つの臨床課題を伴い, マルチモーダル医用画像解析の新たな問題点を体系的に評価し, 新しい評価指標を提案した。
評価された16個のヒートマップxai技術は, \textbf{g3} と \textbf{g4} の故障により臨床応用には適していない。
本評価は,臨床応用可能なxaiの設計と評価を支援するための臨床xaiガイドラインの使用を実証した。
関連論文リスト
- A Survey on Human-Centered Evaluation of Explainable AI Methods in Clinical Decision Support Systems [45.89954090414204]
本稿では,臨床診断支援システムにおける説明可能なAI手法の人間中心評価について調査する。
本研究は、XAIの医療への統合における重要な課題を明らかにし、XAIの評価方法と利害関係者の臨床的ニーズを整合させる構造的枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-14T01:21:29Z) - 2-Factor Retrieval for Improved Human-AI Decision Making in Radiology [41.2574078312095]
本研究では、従来使用されていたAI技術と「2要素探索(2FR)」と呼ばれる新たな手法を比較した。
2FRは、インタフェース設計と検索検索の組み合わせで、同様のラベル付きデータを、このデータを処理せずに返す。
胸部X線診断で検査すると, 2FRは, 臨床医が放射線科医である場合に, 臨床医の精度が向上することがわかった。
論文 参考訳(メタデータ) (2024-11-30T06:44:42Z) - Clinical Evaluation of Medical Image Synthesis: A Case Study in Wireless Capsule Endoscopy [63.39037092484374]
本研究は,人工知能(AI)モデルを用いた医用合成データ生成の臨床評価に焦点を当てた。
本論文は,a) 医用専門家による合成画像の体系的評価のためのプロトコルを提示し,b) 高分解能WCE画像合成のための新しい変分オートエンコーダモデルであるTIDE-IIを評価する。
その結果、TIDE-IIは臨床的に関連性のあるWCE画像を生成し、データの不足に対処し、診断ツールの強化に役立つことがわかった。
論文 参考訳(メタデータ) (2024-10-31T19:48:50Z) - Deciphering knee osteoarthritis diagnostic features with explainable
artificial intelligence: A systematic review [4.918419052486409]
変形性膝関節症(OA)を診断するための既存の人工知能モデルは、その透明性と解釈可能性の欠如に対して批判を浴びている。
近年,説明可能な人工知能 (XAI) がモデルの予測に自信を与える特別な技術として出現している。
本報告では膝OA診断に用いるXAI技術について紹介する。
論文 参考訳(メタデータ) (2023-08-18T08:23:47Z) - Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted? [2.0089256058364358]
透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は、医療現場における予測モデルの説明に使用される2つの一般的なXAI手法を評価する。
論文 参考訳(メタデータ) (2023-06-21T02:29:30Z) - AutoTrial: Prompting Language Models for Clinical Trial Design [53.630479619856516]
本稿では,言語モデルを用いた臨床検査基準の設計を支援するAutoTrialという手法を提案する。
70K以上の臨床試験で、AutoTrialが高品質な基準テキストを生成することが確認された。
論文 参考訳(メタデータ) (2023-05-19T01:04:16Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Evaluating Explainable AI on a Multi-Modal Medical Imaging Task: Can
Existing Algorithms Fulfill Clinical Requirements? [42.75635888823057]
Heatmapは、AIモデルの予測の重要な特徴を強調する、説明の一形態である。
マルチモーダルな医用画像の意思決定において,ヒートマップがどの程度優れているかは分かっていない。
本稿では,この臨床的に重要であるが技術的に無視される問題に対処するために,MSFI(Modality-specific feature importance)尺度を提案する。
論文 参考訳(メタデータ) (2022-03-12T17:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。