論文の概要: The Explanation Necessity for Healthcare AI
- arxiv url: http://arxiv.org/abs/2406.00216v1
- Date: Fri, 31 May 2024 22:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 08:13:57.169838
- Title: The Explanation Necessity for Healthcare AI
- Title(参考訳): 医療AIのための説明の必要性
- Authors: Michail Mamalakis, Héloïse de Vareilles, Graham Murray, Pietro Lio, John Suckling,
- Abstract要約: そこで本研究では,4つの異なる説明のクラスを持つ新たな分類体系を提案する。
評価プロトコルの堅牢性、専門家による観察の変動性、アプリケーションの表現次元性という3つの重要な要素が考慮されている。
- 参考スコア(独自算出の注目度): 3.8953842074141387
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainability is often critical to the acceptable implementation of artificial intelligence (AI). Nowhere is this more important than healthcare where decision-making directly impacts patients and trust in AI systems is essential. This trust is often built on the explanations and interpretations the AI provides. Despite significant advancements in AI interpretability, there remains the need for clear guidelines on when and to what extent explanations are necessary in the medical context. We propose a novel categorization system with four distinct classes of explanation necessity, guiding the level of explanation required: patient or sample (local) level, cohort or dataset (global) level, or both levels. We introduce a mathematical formulation that distinguishes these categories and offers a practical framework for researchers to determine the necessity and depth of explanations required in medical AI applications. Three key factors are considered: the robustness of the evaluation protocol, the variability of expert observations, and the representation dimensionality of the application. In this perspective, we address the question: When does an AI medical application need to be explained, and at what level of detail?
- Abstract(参考訳): 説明可能性はしばしば人工知能(AI)の実装に欠かせない。
意思決定が患者に直接影響を与え、AIシステムへの信頼が不可欠である医療よりも、このことが重要なのはどこにもない。
この信頼は、AIが提供する説明と解釈に基づいて構築されることが多い。
AIの解釈可能性の大幅な進歩にもかかわらず、医療の文脈において、いつ、どの程度の説明が必要なのか、明確なガイドラインが必要である。
患者またはサンプル(地域)レベル,コホート(コホート)レベル,データセット(グローバル)レベル,あるいはいずれのレベルも要求される説明レベルを導く。
我々はこれらのカテゴリを識別する数学的定式化を導入し、研究者が医療AI応用に必要な説明の必要性と深さを決定するための実践的な枠組みを提供する。
評価プロトコルの堅牢性、専門家による観察の変動性、アプリケーションの表現次元性という3つの重要な要素が考慮されている。
この観点では、私たちは疑問に対処する: AI医療アプリケーションはいつ、どのレベルの詳細で説明する必要があるのか?
関連論文リスト
- CasiMedicos-Arg: A Medical Question Answering Dataset Annotated with Explanatory Argumentative Structures [19.242920846826895]
本報告では, 臨床症例の正しい診断と誤診断を, 医師が記述した自然言語による説明に富む, 医療質問応答のための最初の多言語データセットを提案する。
このデータセットは、5021の主張、2313の前提、2431の支持関係、1106の攻撃関係を注釈した4つの言語(英語、スペイン語、フランス語、イタリア語)の558の臨床ケースで構成されています。
論文 参考訳(メタデータ) (2024-10-07T17:41:45Z) - Explainable AI: Definition and attributes of a good explanation for health AI [0.18846515534317265]
AIシステムが推奨する方法と理由を理解するには、内部の動作と推論プロセスに関する複雑な説明が必要になる可能性がある。
AIの可能性を完全に実現するためには、安全クリティカルなAIアプリケーションの説明に関する2つの基本的な疑問に対処することが重要である。
本研究の成果は,(1)健康AIにおける説明を構成するものの定義,(2)健康AIにおける良い説明を特徴付ける属性の包括的リストを含む。
論文 参考訳(メタデータ) (2024-09-09T16:56:31Z) - HiTZ@Antidote: Argumentation-driven Explainable Artificial Intelligence
for Digital Medicine [7.089952396422835]
AntiDOTEは、ディープラーニングプロセスの低レベル特性と人間の議論能力に適した高レベルスキームが組み合わされる、説明可能なAIという統合的なビジョンを育む。
プロジェクトの最初の成果として、Antidote CasiMedicosデータセットを公開し、一般に説明可能なAIの研究、特に医療分野における議論を促進する。
論文 参考訳(メタデータ) (2023-06-09T16:50:02Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - Interpretable Multi-Step Reasoning with Knowledge Extraction on Complex
Healthcare Question Answering [89.76059961309453]
HeadQAデータセットには、公衆医療専門試験で認可された複数の選択質問が含まれている。
これらの質問は、現在のQAシステムにとって最も難しいものです。
知識抽出フレームワーク(MurKe)を用いた多段階推論を提案する。
市販の事前訓練モデルを完全に活用しようと努力しています。
論文 参考訳(メタデータ) (2020-08-06T02:47:46Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。