論文の概要: The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies
- arxiv url: http://arxiv.org/abs/2007.15911v2
- Date: Tue, 5 Jan 2021 08:32:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 05:35:23.056995
- Title: The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies
- Title(参考訳): 医療における信頼できる人工知能作成における説明可能性の役割--用語・設計選択・評価戦略の包括的調査
- Authors: Aniek F. Markus, Jan A. Kors, Peter R. Rijnbeek
- Abstract要約: 透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
- 参考スコア(独自算出の注目度): 1.2762298148425795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) has huge potential to improve the health and
well-being of people, but adoption in clinical practice is still limited. Lack
of transparency is identified as one of the main barriers to implementation, as
clinicians should be confident the AI system can be trusted. Explainable AI has
the potential to overcome this issue and can be a step towards trustworthy AI.
In this paper we review the recent literature to provide guidance to
researchers and practitioners on the design of explainable AI systems for the
health-care domain and contribute to formalization of the field of explainable
AI. We argue the reason to demand explainability determines what should be
explained as this determines the relative importance of the properties of
explainability (i.e. interpretability and fidelity). Based on this, we propose
a framework to guide the choice between classes of explainable AI methods
(explainable modelling versus post-hoc explanation; model-based,
attribution-based, or example-based explanations; global and local
explanations). Furthermore, we find that quantitative evaluation metrics, which
are important for objective standardized evaluation, are still lacking for some
properties (e.g. clarity) and types of explanations (e.g. example-based
methods). We conclude that explainable modelling can contribute to trustworthy
AI, but the benefits of explainability still need to be proven in practice and
complementary measures might be needed to create trustworthy AI in health care
(e.g. reporting data quality, performing extensive (external) validation, and
regulation).
- Abstract(参考訳): 人工知能(AI)は、人々の健康と幸福を改善する大きな可能性を秘めているが、臨床実践における採用は依然として限られている。
透明性の欠如は、臨床医がaiシステムを信頼できると確信するべきであるため、実装の主要な障壁の1つとして認識される。
説明可能なAIは、この問題を克服する可能性があり、信頼できるAIへのステップになり得る。
本稿では、医療分野における説明可能なAIシステムの設計に関する研究者や実践者にガイダンスを提供するため、最近の文献をレビューし、説明可能なAI分野の形式化に寄与する。
説明可能性を求める理由は、説明可能性の性質(解釈可能性と忠実さ)の相対的重要性を決定するため、説明すべきことを決定する。
これに基づいて,説明可能なaiメソッドのクラス(説明可能なモデリングとポストホックな説明,モデルベース,属性ベース,サンプルベース説明,グローバルおよびローカル説明)の選択を導くフレームワークを提案する。
さらに、客観的に標準化された評価に重要な量的評価指標が、いくつかの特性(例えば、明度)や説明のタイプ(例えば、例に基づく手法)にはまだ欠けていることが判明した。
我々は、説明可能なモデリングは信頼できるAIに貢献できると結論づけるが、医療における信頼できるAI(例えば、データ品質の報告、広範囲な(外部の)検証、規制)を作成するためには、説明可能性の利点を実際に証明する必要がある。
関連論文リスト
- The Explanation Necessity for Healthcare AI [3.8953842074141387]
そこで本研究では,4つの異なる説明のクラスを持つ新たな分類体系を提案する。
評価プロトコルの堅牢性、専門家による観察の変動性、アプリケーションの表現次元性という3つの重要な要素が考慮されている。
論文 参考訳(メタデータ) (2024-05-31T22:20:10Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - HiTZ@Antidote: Argumentation-driven Explainable Artificial Intelligence
for Digital Medicine [7.089952396422835]
AntiDOTEは、ディープラーニングプロセスの低レベル特性と人間の議論能力に適した高レベルスキームが組み合わされる、説明可能なAIという統合的なビジョンを育む。
プロジェクトの最初の成果として、Antidote CasiMedicosデータセットを公開し、一般に説明可能なAIの研究、特に医療分野における議論を促進する。
論文 参考訳(メタデータ) (2023-06-09T16:50:02Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - An Objective Metric for Explainable AI: How and Why to Estimate the
Degree of Explainability [3.04585143845864]
本稿では, 客観的手法を用いて, 正しい情報のeX説明可能性の度合いを測定するための, モデルに依存しない新しい指標を提案する。
私たちは、医療とファイナンスのための2つの現実的なAIベースのシステムについて、いくつかの実験とユーザースタディを設計しました。
論文 参考訳(メタデータ) (2021-09-11T17:44:13Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。