論文の概要: XAI-P-T: A Brief Review of Explainable Artificial Intelligence from
Practice to Theory
- arxiv url: http://arxiv.org/abs/2012.09636v1
- Date: Thu, 17 Dec 2020 14:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 16:35:38.289544
- Title: XAI-P-T: A Brief Review of Explainable Artificial Intelligence from
Practice to Theory
- Title(参考訳): XAI-P-T: 説明可能な人工知能の実践から理論へ
- Authors: Nazanin Fouladgar and Kary Fr\"amling
- Abstract要約: 我々は、いくつかの基礎文献で特定された説明可能なAI(XAI)の実践的および理論的側面を報告する。
まず,ブラックボックス説明のカテゴリに注目し,実例を示す。
後に、理論的な説明が多分野分野にどのように根ざしたのかを議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we report the practical and theoretical aspects of Explainable
AI (XAI) identified in some fundamental literature. Although there is a vast
body of work on representing the XAI backgrounds, most of the corpuses pinpoint
a discrete direction of thoughts. Providing insights into literature in
practice and theory concurrently is still a gap in this field. This is
important as such connection facilitates a learning process for the early stage
XAI researchers and give a bright stand for the experienced XAI scholars.
Respectively, we first focus on the categories of black-box explanation and
give a practical example. Later, we discuss how theoretically explanation has
been grounded in the body of multidisciplinary fields. Finally, some directions
of future works are presented.
- Abstract(参考訳): 本稿では,いくつかの基礎文献で確認された説明可能なAI(XAI)の実践的・理論的側面について報告する。
XAIの背景の表現には膨大な作業があるが、コーパスの多くは思考の個別の方向を指し示している。
実践と理論の同時に文学に洞察を与えることは、この分野ではまだギャップである。
これは、初期のXAI研究者の学習プロセスを促進し、経験豊富なXAI学者に明るい立場を与えるためである。
ここではまずブラックボックスの説明のカテゴリに注目し,実例を示す。
その後、多分野の体に理論的な説明が根拠となっているかについて議論する。
最後に、今後の作品の方向性を示す。
関連論文リスト
- Concept-Based Explanations in Computer Vision: Where Are We and Where Could We Go? [17.381059227791162]
ニューラルビジョンモデルを説明するための概念ベースのXAIアプローチは、有望な研究分野である。
本稿では,C-XAI手法を用いて,興味深く,未探索な領域を同定し,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2024-09-20T12:43:21Z) - Understanding XAI Through the Philosopher's Lens: A Historical Perspective [5.839350214184222]
論理的帰納的モデルから統計的説明モデルまで,両領域で段階的に進行したことを示す。
同様の概念は、例えば、説明と理解の関係と実用的要因の重要性の両方に独立して現れている。
論文 参考訳(メタデータ) (2024-07-26T14:44:49Z) - Explainable Artificial Intelligence and Multicollinearity : A Mini Review of Current Approaches [0.0]
説明可能な人工知能(XAI)手法は、機械学習モデルの内部メカニズムを理解するのに役立つ。
情報的特徴のリストは、XAIメソッドの最も一般的な出力の1つである。
マルチコリニアリティは、XAIが説明を生成するときに考慮すべき大きな問題の1つです。
論文 参考訳(メタデータ) (2024-06-17T13:26:53Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Argumentative XAI: A Survey [15.294433619347082]
計算論の分野からの手法を用いて構築したXAI手法の概要を概説する。
私たちは、さまざまなタイプの説明(本質的およびポストホック的)、議論に基づく説明がデプロイされるさまざまなモデル、デリバリの異なる形式、それらが使用する議論フレームワークに焦点を当てます。
論文 参考訳(メタデータ) (2021-05-24T13:32:59Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z) - Machine Reasoning Explainability [100.78417922186048]
機械推論(MR: Machine Reasoning)は、抽象的推論を形式化し、エミュレートするための象徴的な手段である。
初期のMRの研究は、明らかに説明可能なAI(XAI)への問い合わせを開始した
本論文はMR説明可能性に関する我々の研究成果を報告する。
論文 参考訳(メタデータ) (2020-09-01T13:45:05Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。