論文の概要: Explainable AI: Definition and attributes of a good explanation for health AI
- arxiv url: http://arxiv.org/abs/2409.15338v1
- Date: Mon, 9 Sep 2024 16:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 19:54:40.794355
- Title: Explainable AI: Definition and attributes of a good explanation for health AI
- Title(参考訳): 説明可能なAI:健康AIのための良い説明の定義と属性
- Authors: Evangelia Kyrimi, Scott McLachlan, Jared M Wohlgemut, Zane B Perkins, David A. Lagnado, William Marsh, the ExAIDSS Expert Group,
- Abstract要約: AIシステムが推奨する方法と理由を理解するには、内部の動作と推論プロセスに関する複雑な説明が必要になる可能性がある。
AIの可能性を完全に実現するためには、安全クリティカルなAIアプリケーションの説明に関する2つの基本的な疑問に対処することが重要である。
本研究の成果は,(1)健康AIにおける説明を構成するものの定義,(2)健康AIにおける良い説明を特徴付ける属性の包括的リストを含む。
- 参考スコア(独自算出の注目度): 0.18846515534317265
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Proposals of artificial intelligence (AI) solutions based on increasingly complex and accurate predictive models are becoming ubiquitous across many disciplines. As the complexity of these models grows, transparency and users' understanding often diminish. This suggests that accurate prediction alone is insufficient for making an AI-based solution truly useful. In the development of healthcare systems, this introduces new issues related to accountability and safety. Understanding how and why an AI system makes a recommendation may require complex explanations of its inner workings and reasoning processes. Although research on explainable AI (XAI) has significantly increased in recent years and there is high demand for XAI in medicine, defining what constitutes a good explanation remains ad hoc, and providing adequate explanations continues to be challenging. To fully realize the potential of AI, it is critical to address two fundamental questions about explanations for safety-critical AI applications, such as health-AI: (1) What is an explanation in health-AI? and (2) What are the attributes of a good explanation in health-AI? In this study, we examined published literature and gathered expert opinions through a two-round Delphi study. The research outputs include (1) a definition of what constitutes an explanation in health-AI and (2) a comprehensive list of attributes that characterize a good explanation in health-AI.
- Abstract(参考訳): ますます複雑で正確な予測モデルに基づく人工知能(AI)ソリューションの提案は、多くの分野にわたって広く行き渡っている。
これらのモデルの複雑さが増大するにつれて、透明性とユーザの理解は低下することが多い。
これは、AIベースのソリューションを本当に役立つものにするには、正確な予測だけで不十分であることを示している。
医療システムの開発において、説明責任と安全性に関する新たな問題が発生する。
AIシステムが推奨する方法と理由を理解するには、内部の動作と推論プロセスに関する複雑な説明が必要になる可能性がある。
近年、説明可能なAI(XAI)の研究が著しく増加し、医学におけるXAIの需要も高まっているが、良い説明を構成するものの定義はいまだ残っており、適切な説明を提供することは引き続き困難である。
AIの可能性を完全に実現するためには、ヘルスAIのような安全クリティカルなAIアプリケーションの説明に関する2つの基本的な疑問に対処することが重要である。
健康AIにおける良い説明の属性は何か?
本研究では,出版論文を調査し,Delphiの2ラウンド研究を通じて専門家の意見を収集した。
本研究の成果は,(1)健康AIにおける説明を構成するものの定義,(2)健康AIにおける良い説明を特徴付ける属性の包括的リストを含む。
関連論文リスト
- HiTZ@Antidote: Argumentation-driven Explainable Artificial Intelligence
for Digital Medicine [7.089952396422835]
AntiDOTEは、ディープラーニングプロセスの低レベル特性と人間の議論能力に適した高レベルスキームが組み合わされる、説明可能なAIという統合的なビジョンを育む。
プロジェクトの最初の成果として、Antidote CasiMedicosデータセットを公開し、一般に説明可能なAIの研究、特に医療分野における議論を促進する。
論文 参考訳(メタデータ) (2023-06-09T16:50:02Z) - A Review on Explainable Artificial Intelligence for Healthcare: Why,
How, and When? [0.0]
我々は、説明可能な人工知能(XAI)の体系的分析を行う。
このレビューでは、XAIの主流傾向を分析し、研究の方向性について概説する。
本稿では、医療分野におけるAIモデルの記述から信頼できるAIをどのように導き出すことができるかを説明する。
論文 参考訳(メタデータ) (2023-04-10T17:40:21Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。