論文の概要: Guidelines and evaluation for clinical explainable AI on medical image
analysis
- arxiv url: http://arxiv.org/abs/2202.10553v1
- Date: Wed, 16 Feb 2022 19:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-27 17:33:27.972104
- Title: Guidelines and evaluation for clinical explainable AI on medical image
analysis
- Title(参考訳): 医用画像解析における臨床説明可能なAIのガイドラインと評価
- Authors: Weina Jin, Xiaoxiao Li, Mostafa Fatehi, Ghassan Hamarneh
- Abstract要約: 我々は,臨床XAIを最適化するために必要な5つの基準からなる臨床XAIガイドラインを提案する。
選択された説明形式では、その特定のXAI技術は、G3の真性、G4のインフォーマルな妥当性、G5の効率に最適化されるべきである。
臨床用XAIガイドラインを用いて臨床用XAIの設計と評価を行った。
- 参考スコア(独自算出の注目度): 22.601774762808247
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence (XAI) is essential for enabling clinical
users to get informed decision support from AI and comply with evidence-based
medical practice. Applying XAI in clinical settings requires proper evaluation
criteria to ensure the explanation technique is both technically sound and
clinically useful, but specific support is lacking to achieve this goal. To
bridge the research gap, we propose the Clinical XAI Guidelines that consist of
five criteria a clinical XAI needs to be optimized for. The guidelines
recommend choosing an explanation form based on Guideline 1 (G1)
Understandability and G2 Clinical relevance. For the chosen explanation form,
its specific XAI technique should be optimized for G3 Truthfulness, G4
Informative plausibility, and G5 Computational efficiency.
Following the guidelines, we conducted a systematic evaluation on a novel
problem of multi-modal medical image explanation with two clinical tasks, and
proposed new evaluation metrics accordingly. The evaluated 16 commonly-used
heatmap XAI techniques were not suitable for clinical use due to their failure
in \textbf{G3} and \textbf{G4}. Our evaluation demonstrated the use of Clinical
XAI Guidelines to support the design and evaluation for clinically viable XAI.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、臨床ユーザーがAIから情報提供を受け、エビデンスベースの医療実践に従えるようにするために不可欠である。
臨床環境でのXAIの適用には、説明技法が技術的に健全かつ臨床的に有用であることを保証するための適切な評価基準が必要であるが、この目標を達成するには特定の支援が欠如している。
研究ギャップを埋めるため,我々は臨床xaiを最適化する必要がある5つの基準からなる臨床xaiガイドラインを提案する。
ガイドラインは、ガイドライン1(g1)の理解性とg2の臨床関連性に基づいて説明フォームを選択することを推奨する。
選択された説明形式では、その特定のXAI技術は、G3の真性、G4のインフォーマルな可算性、G5の計算効率に最適化されるべきである。
ガイドラインに従い, 2つの臨床課題を伴い, マルチモーダル医用画像解析の新たな問題点を体系的に評価し, 新しい評価指標を提案した。
評価された16個のヒートマップxai技術は, \textbf{g3} と \textbf{g4} の故障により臨床応用には適していない。
本評価は,臨床応用可能なxaiの設計と評価を支援するための臨床xaiガイドラインの使用を実証した。
関連論文リスト
- Clinical Evaluation of Medical Image Synthesis: A Case Study in Wireless Capsule Endoscopy [63.39037092484374]
本研究は,人工知能(AI)モデルを用いた医用合成データ生成の臨床評価に焦点を当てた。
本論文は,a) 医用専門家による合成画像の体系的評価のためのプロトコルを提示し,b) 高分解能WCE画像合成のための新しい変分オートエンコーダモデルであるTIDE-IIを評価する。
その結果、TIDE-IIは臨床的に関連性のあるWCE画像を生成し、データの不足に対処し、診断ツールの強化に役立つことがわかった。
論文 参考訳(メタデータ) (2024-10-31T19:48:50Z) - "It depends": Configuring AI to Improve Clinical Usefulness Across Contexts [0.0]
本稿では、異なる文脈における臨床的有用性のためにAIを設計する方法を考察する。
デンマークとケニアの7つの臨床施設の放射線技師13名を対象に,19回のデザインセッションを行った。
我々は,意図した臨床状況に合わせて設定しなければならない4つの技術的側面を概念化した。
論文 参考訳(メタデータ) (2024-05-27T11:49:05Z) - Deciphering knee osteoarthritis diagnostic features with explainable
artificial intelligence: A systematic review [4.918419052486409]
変形性膝関節症(OA)を診断するための既存の人工知能モデルは、その透明性と解釈可能性の欠如に対して批判を浴びている。
近年,説明可能な人工知能 (XAI) がモデルの予測に自信を与える特別な技術として出現している。
本報告では膝OA診断に用いるXAI技術について紹介する。
論文 参考訳(メタデータ) (2023-08-18T08:23:47Z) - Evaluation of Popular XAI Applied to Clinical Prediction Models: Can
They be Trusted? [2.0089256058364358]
透明性と説明可能性の欠如は、機械学習(ML)アルゴリズムの臨床的採用を妨げる。
本研究は、医療現場における予測モデルの説明に使用される2つの一般的なXAI手法を評価する。
論文 参考訳(メタデータ) (2023-06-21T02:29:30Z) - AutoTrial: Prompting Language Models for Clinical Trial Design [53.630479619856516]
本稿では,言語モデルを用いた臨床検査基準の設計を支援するAutoTrialという手法を提案する。
70K以上の臨床試験で、AutoTrialが高品質な基準テキストを生成することが確認された。
論文 参考訳(メタデータ) (2023-05-19T01:04:16Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Explainable AI for clinical and remote health applications: a survey on
tabular and time series data [3.655021726150368]
XAIは、特に医療において、さまざまな研究領域やデータタイプに同じ関心を集めていない点に注意が必要だ。
本稿は,過去5年間の文献を概観し,生成した説明のタイプと,それらの関連性や品質を評価するための取り組みについて述べる。
論文 参考訳(メタデータ) (2022-09-14T10:01:29Z) - Evaluating Explainable AI on a Multi-Modal Medical Imaging Task: Can
Existing Algorithms Fulfill Clinical Requirements? [42.75635888823057]
Heatmapは、AIモデルの予測の重要な特徴を強調する、説明の一形態である。
マルチモーダルな医用画像の意思決定において,ヒートマップがどの程度優れているかは分かっていない。
本稿では,この臨床的に重要であるが技術的に無視される問題に対処するために,MSFI(Modality-specific feature importance)尺度を提案する。
論文 参考訳(メタデータ) (2022-03-12T17:18:16Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。