論文の概要: A Brief Review of Explainable Artificial Intelligence in Healthcare
- arxiv url: http://arxiv.org/abs/2304.01543v1
- Date: Tue, 4 Apr 2023 05:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 15:03:44.735296
- Title: A Brief Review of Explainable Artificial Intelligence in Healthcare
- Title(参考訳): 医療における説明可能な人工知能の概観
- Authors: Zahra Sadeghi, Roohallah Alizadehsani, Mehmet Akif Cifci, Samina
Kausar, Rizwan Rehman, Priyakshi Mahanta, Pranjal Kumar Bora, Ammar Almasri,
Rami S. Alkhawaldeh, Sadiq Hussain, Bilal Alatas, Afshin Shoeibi, Hossein
Moosaei, Milan Hladik, Saeid Nahavandi, Panos M. Pardalos
- Abstract要約: XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
- 参考スコア(独自算出の注目度): 7.844015105790313
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: XAI refers to the techniques and methods for building AI applications which
assist end users to interpret output and predictions of AI models. Black box AI
applications in high-stakes decision-making situations, such as medical domain
have increased the demand for transparency and explainability since wrong
predictions may have severe consequences. Model explainability and
interpretability are vital successful deployment of AI models in healthcare
practices. AI applications' underlying reasoning needs to be transparent to
clinicians in order to gain their trust. This paper presents a systematic
review of XAI aspects and challenges in the healthcare domain. The primary
goals of this study are to review various XAI methods, their challenges, and
related machine learning models in healthcare. The methods are discussed under
six categories: Features-oriented methods, global methods, concept models,
surrogate models, local pixel-based methods, and human-centric methods. Most
importantly, the paper explores XAI role in healthcare problems to clarify its
necessity in safety-critical applications. The paper intends to establish a
comprehensive understanding of XAI-related applications in the healthcare field
by reviewing the related experimental results. To facilitate future research
for filling research gaps, the importance of XAI models from different
viewpoints and their limitations are investigated.
- Abstract(参考訳): XAIは、エンドユーザーがAIモデルの出力と予測を解釈するのを助けるAIアプリケーションを構築する技術と方法を指す。
医療ドメインなどの高リスク意思決定状況におけるブラックボックスaiアプリケーションは、誤った予測が深刻な結果をもたらす可能性があるため、透明性と説明可能性の要求を増加させている。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
aiアプリケーションの基盤となる推論は、信頼を得るためには、臨床医に透明性を持たなければならない。
本稿では,医療領域におけるxaiの側面と課題を体系的にレビューする。
本研究の主な目的は、医療における様々なXAI手法、課題、および関連する機械学習モデルを検討することである。
提案手法は,特徴指向手法,グローバル手法,概念モデル,代理モデル,局所画素ベース手法,人間中心手法の6つのカテゴリに分類される。
最も重要なことは、医療問題におけるXAIの役割を探求し、安全クリティカルなアプリケーションにおけるその必要性を明らかにすることである。
本研究は,医療分野におけるXAI関連応用の総合的な理解を確立することを目的としている。
研究ギャップを埋めるための今後の研究を促進するために,異なる視点からのXAIモデルの重要性と限界について検討した。
関連論文リスト
- Self-eXplainable AI for Medical Image Analysis: A Survey and New Outlooks [9.93411316886105]
Self-eXplainable AI (S-XAI)は、ディープラーニングモデルのトレーニングプロセスに説明可能性を直接組み込む。
本研究は,様々な画像モダリティと臨床応用を包括的に検討する。
論文 参考訳(メタデータ) (2024-10-03T09:29:28Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - From Explainable to Interpretable Deep Learning for Natural Language Processing in Healthcare: How Far from Reality? [8.423877102146433]
eXplainable and Interpretable Artificial Intelligence (XIAI)は、XAIとIAIを区別するために導入された人工知能である。
分析の結果,注目メカニズムが最も普及しているIAI技術であることが判明した。
主要な課題は、ほとんどのXIAIが"グローバル"なモデリングプロセス、ベストプラクティスの欠如、体系的な評価とベンチマークの欠如を探求していないことである。
論文 参考訳(メタデータ) (2024-03-18T15:53:33Z) - A Review on Explainable Artificial Intelligence for Healthcare: Why,
How, and When? [0.0]
我々は、説明可能な人工知能(XAI)の体系的分析を行う。
このレビューでは、XAIの主流傾向を分析し、研究の方向性について概説する。
本稿では、医療分野におけるAIモデルの記述から信頼できるAIをどのように導き出すことができるかを説明する。
論文 参考訳(メタデータ) (2023-04-10T17:40:21Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z) - Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems [4.9449660544238085]
我々は、既知の疾患基準の検証のための説明可能なAIの開発における初期の成果について論じる。
我々は、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ、残る課題をいくつか強調する。
論文 参考訳(メタデータ) (2020-11-26T08:08:19Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。