論文の概要: Gradient based Feature Attribution in Explainable AI: A Technical Review
- arxiv url: http://arxiv.org/abs/2403.10415v1
- Date: Fri, 15 Mar 2024 15:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 16:21:13.807659
- Title: Gradient based Feature Attribution in Explainable AI: A Technical Review
- Title(参考訳): 説明可能なAIにおけるグラディエントベースの特徴属性:技術レビュー
- Authors: Yongjie Wang, Tong Zhang, Xu Guo, Zhiqi Shen,
- Abstract要約: ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
- 参考スコア(独自算出の注目度): 13.848675695545909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The surge in black-box AI models has prompted the need to explain the internal mechanism and justify their reliability, especially in high-stakes applications, such as healthcare and autonomous driving. Due to the lack of a rigorous definition of explainable AI (XAI), a plethora of research related to explainability, interpretability, and transparency has been developed to explain and analyze the model from various perspectives. Consequently, with an exhaustive list of papers, it becomes challenging to have a comprehensive overview of XAI research from all aspects. Considering the popularity of neural networks in AI research, we narrow our focus to a specific area of XAI research: gradient based explanations, which can be directly adopted for neural network models. In this review, we systematically explore gradient based explanation methods to date and introduce a novel taxonomy to categorize them into four distinct classes. Then, we present the essence of technique details in chronological order and underscore the evolution of algorithms. Next, we introduce both human and quantitative evaluations to measure algorithm performance. More importantly, we demonstrate the general challenges in XAI and specific challenges in gradient based explanations. We hope that this survey can help researchers understand state-of-the-art progress and their corresponding disadvantages, which could spark their interest in addressing these issues in future work.
- Abstract(参考訳): ブラックボックスAIモデルの急増により、特にヘルスケアや自動運転といった高度なアプリケーションにおいて、内部メカニズムを説明し、信頼性を正当化する必要性が高まっている。
説明可能なAI(XAI)の厳密な定義がないため、さまざまな観点からモデルを説明し分析するために、説明可能性、解釈可能性、透明性に関する多くの研究が開発された。
その結果,全論文を網羅的にリストアップすることで,あらゆる面からXAI研究の概要を概観することが困難になる。
AI研究におけるニューラルネットワークの人気を考えると、我々は、ニューラルネットワークモデルに直接適用可能な勾配に基づく説明という、XAI研究の特定の領域に焦点を絞っている。
本稿では,現在までの勾配に基づく説明手法を体系的に検討し,これらを4つのクラスに分類する新しい分類法を提案する。
そこで,本研究では,時間順の手法の詳細を提示し,アルゴリズムの進化を裏付ける。
次に,アルゴリズムの性能を評価するために,人的評価と定量的評価の両方を導入する。
より重要なことは、XAIにおける一般的な課題と勾配に基づく説明における特定の課題を示すことである。
この調査は、研究者が最先端の進歩とそれに対応する欠点を理解するのに役立つことを期待しており、今後の研究でこれらの問題に対処することへの関心を喚起する可能性がある。
関連論文リスト
- Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing [52.110707276938]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出のための主要なモデリングパラダイムとなっている。
我々は、リモートセンシングにおいて、説明可能なAIがどのように使われているかを示す重要なトレンドを特定するために、体系的なレビューを行う。
私たちは、新しい説明可能なAIアプローチと、特定のリモートセンシング課題に対処する新たな方向性に光を当てました。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - How Well Do Feature-Additive Explainers Explain Feature-Additive
Predictors? [12.993027779814478]
LIME、SHAP、SHAPR、MAPLE、PDPといった人気機能付加型推論器は、機能付加型予測器を説明できるだろうか?
本稿では,モデルの加法構造から解析的に導出される基底真理について,そのような説明を行う。
以上の結果から,全ての説明者が機能の重要性を正しく評価できないことが示唆された。
論文 参考訳(メタデータ) (2023-10-27T21:16:28Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z) - Explainable Artificial Intelligence: a Systematic Review [2.741266294612776]
機械学習は、非常に正確なモデルの開発につながったが、説明可能性や解釈可能性に欠けていた。
この問題に対処するための多くの手法が提案され、開発され、テストされている。
この体系的なレビューは、これらの手法を階層的な分類システムでクラスタリングすることで、知識の体系に寄与する。
論文 参考訳(メタデータ) (2020-05-29T21:41:12Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。