論文の概要: Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey
- arxiv url: http://arxiv.org/abs/2006.11371v2
- Date: Tue, 23 Jun 2020 01:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 18:42:32.231321
- Title: Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey
- Title(参考訳): 説明可能な人工知能(XAI)の可能性と課題
- Authors: Arun Das and Paul Rad
- Abstract要約: 深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
- 参考スコア(独自算出の注目度): 2.7086321720578623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, deep neural networks are widely used in mission critical systems
such as healthcare, self-driving vehicles, and military which have direct
impact on human lives. However, the black-box nature of deep neural networks
challenges its use in mission critical applications, raising ethical and
judicial concerns inducing lack of trust. Explainable Artificial Intelligence
(XAI) is a field of Artificial Intelligence (AI) that promotes a set of tools,
techniques, and algorithms that can generate high-quality interpretable,
intuitive, human-understandable explanations of AI decisions. In addition to
providing a holistic view of the current XAI landscape in deep learning, this
paper provides mathematical summaries of seminal work. We start by proposing a
taxonomy and categorizing the XAI techniques based on their scope of
explanations, methodology behind the algorithms, and explanation level or usage
which helps build trustworthy, interpretable, and self-explanatory deep
learning models. We then describe the main principles used in XAI research and
present the historical timeline for landmark studies in XAI from 2007 to 2020.
After explaining each category of algorithms and approaches in detail, we then
evaluate the explanation maps generated by eight XAI algorithms on image data,
discuss the limitations of this approach, and provide potential future
directions to improve XAI evaluation.
- Abstract(参考訳): 現在、深層ニューラルネットワークは医療、自動運転車、軍隊といった人間の生活に直接影響を与えるミッションクリティカルなシステムで広く使われている。
しかし、ディープニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの使用に挑戦し、信頼の欠如を引き起こす倫理的および司法的懸念を提起する。
説明可能な人工知能(XAI)は人工知能(AI)の分野であり、AI決定の高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、技術、アルゴリズムのセットを促進する。
深層学習における現在のXAIランドスケープの全体像を提供するのに加えて,本論文は基礎研究の数学的要約を提供する。
まず、分類法を提案し、その説明のスコープ、アルゴリズムの背後にある方法論、そして、信頼できる、解釈可能な、自己説明可能なディープラーニングモデルを構築するのに役立つ説明レベルまたは使用法に基づいてxai技術を分類する。
その後、2007年から2020年までのXAI研究における主要な原則について述べ、XAIにおけるランドマーク研究の歴史的タイムラインを示す。
アルゴリズムとアプローチの各カテゴリを詳細に説明した後,画像データ上で8つのxaiアルゴリズムが生成する説明マップを評価し,このアプローチの限界を議論し,xai評価を改善するための今後の方向性を示す。
関連論文リスト
- Who wants what and how: a Mapping Function for Explainable Artificial
Intelligence [0.0]
本研究の目的は、既存のXAI研究のレビューを行い、XAI手法の分類を提示することである。
この研究は、XAIユーザを適切な方法で接続し、現在のXAIアプローチと望ましい特性を関連付けることを目的とする。
論文 参考訳(メタデータ) (2023-02-07T01:06:38Z) - A Time Series Approach to Explainability for Neural Nets with
Applications to Risk-Management and Fraud Detection [0.0]
技術に対する信頼は、予測の背後にある根拠を理解することによって実現される。
横断的なデータの場合、古典的なXAIアプローチはモデルの内部動作に関する貴重な洞察をもたらす可能性がある。
本稿では、データの自然時間順序を保存・活用する深層学習のための新しいXAI手法を提案する。
論文 参考訳(メタデータ) (2022-12-06T12:04:01Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Human-Centered Explainable AI (XAI): From Algorithms to User Experiences [29.10123472973571]
説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
論文 参考訳(メタデータ) (2021-10-20T21:33:46Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - Explainable Artificial Intelligence (XAI): An Engineering Perspective [0.0]
XAIは、いわゆるブラックボックスAIアルゴリズムをホワイトボックスアルゴリズムに変換するテクニックと方法のセットです。
XAIのステークホルダを議論し、エンジニアリングの観点からXAIの数学的輪郭を説明します。
この研究は、XAIの分野における研究の新しい道を特定するための探索的研究です。
論文 参考訳(メタデータ) (2021-01-10T19:49:12Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。