論文の概要: A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI
- arxiv url: http://arxiv.org/abs/2103.04951v1
- Date: Mon, 8 Mar 2021 18:15:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 06:42:36.472209
- Title: A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI
- Title(参考訳): 高次元電子健康記録における説明可能な人工知能手法の比較研究:XAIの使用可能性の検討
- Authors: Jamie Andrew Duell
- Abstract要約: XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) is a rising field in AI. It aims to
produce a demonstrative factor of trust, which for human subjects is achieved
through communicative means, which Machine Learning (ML) algorithms cannot
solely produce, illustrating the necessity of an extra layer producing support
to the model output. When approaching the medical field, we can see challenges
arise when dealing with the involvement of human-subjects, the ideology behind
trusting a machine to tend towards the livelihood of a human poses an ethical
conundrum - leaving trust as the basis of the human-expert in acceptance to the
machines decision. The aim of this paper is to apply XAI methods to demonstrate
the usability of explainable architectures as a tertiary layer for the medical
domain supporting ML predictions and human-expert opinion, XAI methods produce
visualization of the feature contribution towards a given models output on both
a local and global level. The work in this paper uses XAI to determine feature
importance towards high-dimensional data-driven questions to inform
domain-experts of identifiable trends with a comparison of model-agnostic
methods in application to ML algorithms. The performance metrics for a
glass-box method is also provided as a comparison against black-box capability
for tabular data. Future work will aim to produce a user-study using metrics to
evaluate human-expert usability and opinion of the given models.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、AIの上昇分野です。
これは、機械学習(ML)アルゴリズムだけでは生成できないコミュニケーション手段を介して、人間の被験者のために達成される信頼の実証的な要因を生成し、モデル出力へのサポートを生成する余分な層の必要性を示しています。
医療分野に近づくと、人間の主体の関与に対処するとき、人間の生き方に向かって機械を信頼する背後にあるイデオロギーは倫理的な混乱を引き起こします - 機械の決定を受け入れるための人間専門家の基礎として信頼を残します。
本稿では,説明可能なアーキテクチャをml予測と人間-専門家の意見をサポートする医療領域の3次層としての有用性を示すために,xai手法を適用し,局所的およびグローバルレベルで出力されるモデルに対する特徴的貢献を可視化することを目的とする。
本論文では,高次元データ駆動型質問に対する特徴的重要性をXAIを用いて決定し,MLアルゴリズムへの適用におけるモデル非依存手法の比較により,特定可能な傾向のドメイン専門家に通知する。
また, ガラス箱法の性能指標は, 表データのブラックボックス機能との比較として提供される。
今後は、与えられたモデルの人的専門家のユーザビリティと意見を評価するためにメトリクスを使用してユーザースタディを作成することを目指しています。
関連論文リスト
- Learning to Generate and Evaluate Fact-checking Explanations with Transformers [10.970249299147866]
XAI(Explainable Artificial Antelligence)の研究
我々は,人間のアクセス可能な説明を生成することによって,意思決定を文脈化し,正当化するトランスフォーマーベースの事実チェックモデルを開発した。
我々は人工知能(AI)による説明と人間の判断を一致させる必要性を強調した。
論文 参考訳(メタデータ) (2024-10-21T06:22:51Z) - Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - A Turing Test for Transparency [0.0]
説明可能な人工知能(XAI)の中心的な目標は、人間とAIのインタラクションにおける信頼関係を改善することである。
最近の実証的な証拠は、説明が反対の効果を持つことを示している。
この効果はXAIの目的に挑戦し、透明なAI手法の責任ある使用には、人間が人間の説明から生成された機械を区別する能力を考慮する必要があることを示唆している。
論文 参考訳(メタデータ) (2021-06-21T20:09:40Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z) - Why model why? Assessing the strengths and limitations of LIME [0.0]
本稿では,LIME(Local Interpretable Model-Agnostic Explanations) xAIフレームワークの有効性について検討する。
LIMEは、文献で見られる最も人気のあるモデルに依存しないフレームワークの1つである。
従来の性能評価手法を補うためにLIMEをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2020-11-30T21:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。