論文の概要: Explainable Artificial Intelligence for Human Decision-Support System in
Medical Domain
- arxiv url: http://arxiv.org/abs/2105.02357v1
- Date: Wed, 5 May 2021 22:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 13:41:23.107359
- Title: Explainable Artificial Intelligence for Human Decision-Support System in
Medical Domain
- Title(参考訳): 医療領域における人的意思決定支援システムのための説明可能な人工知能
- Authors: Samanta Knapi\v{c}, Avleen Malhi, Rohit Salujaa, Kary Fr\"amling
- Abstract要約: 私たちの目標は、Convolutional Neural Network(CNN)が提供する決定の理解性を改善することでした。
ビデオカプセル内視鏡(VCE)から得られた生体内ガストラル画像について視覚的説明を行った。
仮説として,CIU の説明可能な手法は LIME 法と SHAP 法の両方よりも,人的意思決定支援の面で優れていることが判明した。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the present paper we present the potential of Explainable Artificial
Intelligence methods for decision-support in medical image analysis scenarios.
With three types of explainable methods applied to the same medical image data
set our aim was to improve the comprehensibility of the decisions provided by
the Convolutional Neural Network (CNN). The visual explanations were provided
on in-vivo gastral images obtained from a Video capsule endoscopy (VCE), with
the goal of increasing the health professionals' trust in the black box
predictions. We implemented two post-hoc interpretable machine learning methods
LIME and SHAP and the alternative explanation approach CIU, centered on the
Contextual Value and Utility (CIU). The produced explanations were evaluated
using human evaluation. We conducted three user studies based on the
explanations provided by LIME, SHAP and CIU. Users from different non-medical
backgrounds carried out a series of tests in the web-based survey setting and
stated their experience and understanding of the given explanations. Three user
groups (n=20, 20, 20) with three distinct forms of explanations were
quantitatively analyzed. We have found that, as hypothesized, the CIU
explainable method performed better than both LIME and SHAP methods in terms of
increasing support for human decision-making as well as being more transparent
and thus understandable to users. Additionally, CIU outperformed LIME and SHAP
by generating explanations more rapidly. Our findings suggest that there are
notable differences in human decision-making between various explanation
support settings. In line with that, we present three potential explainable
methods that can with future improvements in implementation be generalized on
different medical data sets and can provide great decision-support for medical
experts.
- Abstract(参考訳): 本稿では,医療画像解析における決定支援のための説明可能な人工知能手法の可能性について述べる。
同じ医用画像データセットに3種類の説明可能な方法を適用することで,畳み込みニューラルネットワーク(cnn)による決定の理解性を向上させることを目的とした。
ビデオカプセル内視鏡(VCE)から得られた腹腔内ガストロル画像の視覚的説明は、ブラックボックス予測に対する医療専門家の信頼を高めることを目的としていた。
LIMEとSHAPとCIU(Contextual Value and Utility)を中心に,2つのポストホック解釈型機械学習手法を実装した。
生成した説明は人的評価を用いて評価した。
LIME,SHAP,CIUの3つのユーザ研究を行った。
異なる医学的背景を持つユーザは、Webベースの調査設定で一連のテストを実施し、与えられた説明の経験と理解について述べた。
3種類の説明形式を持つ3つのユーザグループ(n=20, 20)を定量的に分析した。
仮説として,CIU の説明可能な手法は LIME と SHAP の手法よりも,人間の意思決定支援の増大や透明性の向上,ユーザにとって理解しやすい方法であることが示唆された。
さらにCIUは、より高速な説明を生成することで、LIMEやSHAPよりも優れていた。
本研究は, 様々な説明支援設定において, 人的意思決定に顕著な違いがあることを示唆する。
そこで本研究では,様々な医療データセット上で実装の今後の改善を一般化し,医療専門家に優れた意思決定支援を提供するための3つの方法を提案する。
関連論文リスト
- Fool Me Once? Contrasting Textual and Visual Explanations in a Clinical Decision-Support Setting [43.110187812734864]
視覚的説明(可用性マップ)、自然言語の説明、両方のモダリティの組み合わせの3種類の説明を評価した。
テキストに基づく説明は、高い信頼度をもたらすことが分かっており、従順マップと組み合わせることで軽減される。
また、説明の質、すなわち、それがどれだけ事実的に正しい情報であり、それがAIの正しさとどの程度一致しているかが、異なる説明タイプの有用性に大きく影響していることも観察します。
論文 参考訳(メタデータ) (2024-10-16T06:43:02Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Beyond Known Reality: Exploiting Counterfactual Explanations for Medical
Research [1.6574413179773761]
本研究は, 医療研究における「もし」シナリオの適用可能性を探るために, 反事実的説明を用いている。
本研究の目的は, 小児後頭葉腫瘍の診断に使用されるMRI像の理解を深めることである。
論文 参考訳(メタデータ) (2023-07-05T09:14:09Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Align, Reason and Learn: Enhancing Medical Vision-and-Language
Pre-training with Knowledge [68.90835997085557]
本稿では,3つの視点から構造化された医療知識を高めるための体系的かつ効果的なアプローチを提案する。
まず、視覚エンコーダと言語エンコーダの表現を知識を通して整列する。
次に,多モード融合モデルに知識を注入し,入力画像とテキストの補足として知識を用いた推論を可能にする。
第3に、知識によって引き起こされるプレテキストタスクを設計することで、画像やテキストの最も重要な情報に重点を置くよう、モデルを指導する。
論文 参考訳(メタデータ) (2022-09-15T08:00:01Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Explainable Deep Learning in Healthcare: A Methodological Survey from an
Attribution View [36.025217954247125]
本稿では,今後の研究者や臨床医の方法論として,深部・包括的に解釈可能性の方法を紹介した。
我々は、これらの方法が医療問題にどのように適応し、適用されたか、また、医師がこれらのデータ駆動技術をよりよく理解するのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-12-05T17:12:53Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。