論文の概要: XAI-P-T: A Brief Review of Explainable Artificial Intelligence from
Practice to Theory
- arxiv url: http://arxiv.org/abs/2012.09636v1
- Date: Thu, 17 Dec 2020 14:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 16:35:38.289544
- Title: XAI-P-T: A Brief Review of Explainable Artificial Intelligence from
Practice to Theory
- Title(参考訳): XAI-P-T: 説明可能な人工知能の実践から理論へ
- Authors: Nazanin Fouladgar and Kary Fr\"amling
- Abstract要約: 我々は、いくつかの基礎文献で特定された説明可能なAI(XAI)の実践的および理論的側面を報告する。
まず,ブラックボックス説明のカテゴリに注目し,実例を示す。
後に、理論的な説明が多分野分野にどのように根ざしたのかを議論する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we report the practical and theoretical aspects of Explainable
AI (XAI) identified in some fundamental literature. Although there is a vast
body of work on representing the XAI backgrounds, most of the corpuses pinpoint
a discrete direction of thoughts. Providing insights into literature in
practice and theory concurrently is still a gap in this field. This is
important as such connection facilitates a learning process for the early stage
XAI researchers and give a bright stand for the experienced XAI scholars.
Respectively, we first focus on the categories of black-box explanation and
give a practical example. Later, we discuss how theoretically explanation has
been grounded in the body of multidisciplinary fields. Finally, some directions
of future works are presented.
- Abstract(参考訳): 本稿では,いくつかの基礎文献で確認された説明可能なAI(XAI)の実践的・理論的側面について報告する。
XAIの背景の表現には膨大な作業があるが、コーパスの多くは思考の個別の方向を指し示している。
実践と理論の同時に文学に洞察を与えることは、この分野ではまだギャップである。
これは、初期のXAI研究者の学習プロセスを促進し、経験豊富なXAI学者に明るい立場を与えるためである。
ここではまずブラックボックスの説明のカテゴリに注目し,実例を示す。
その後、多分野の体に理論的な説明が根拠となっているかについて議論する。
最後に、今後の作品の方向性を示す。
関連論文リスト
- Deep Learning to See: Towards New Foundations of Computer Vision [88.69805848302266]
この本はコンピュータビジョンの分野における科学的進歩を批判している。
情報に基づく自然法則の枠組みにおける視覚の研究を提案する。
論文 参考訳(メタデータ) (2022-06-30T15:20:36Z) - Theoretical Perspectives on Deep Learning Methods in Inverse Problems [115.93934028666845]
我々は、生成前の先行、訓練されていないニューラルネットワークの先行、および展開アルゴリズムに焦点を当てる。
これらのトピックにおける既存の結果の要約に加えて、現在進行中の課題やオープンな問題も強調する。
論文 参考訳(メタデータ) (2022-06-29T02:37:50Z) - A psychological theory of explainability [5.715103211247915]
本稿では,XAI の説明の最も一般的な形式である,サリエンシマップから人間がどのように結論を導き出すかの理論を提案する。
私たちの理論は、人間の説明が欠如していることは、AIが自分自身に同様の決定をすることを期待していること、そして彼らが与える説明と比較して説明を解釈していることを示唆している。
論文 参考訳(メタデータ) (2022-05-17T15:52:24Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - Towards Relatable Explainable AI with the Perceptual Process [5.581885362337179]
我々は、説明は、他の概念、仮説、および関連性により関連していなければならないと論じる。
認知心理学に触発されて、相対論的説明可能なAIのためのXAI知覚処理フレームワークとRexNetモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T05:48:53Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - Argumentative XAI: A Survey [15.294433619347082]
計算論の分野からの手法を用いて構築したXAI手法の概要を概説する。
私たちは、さまざまなタイプの説明(本質的およびポストホック的)、議論に基づく説明がデプロイされるさまざまなモデル、デリバリの異なる形式、それらが使用する議論フレームワークに焦点を当てます。
論文 参考訳(メタデータ) (2021-05-24T13:32:59Z) - XAI Method Properties: A (Meta-)study [0.0]
我々は、XAIにおける最先端技術の本質的側面を強調するために、最も引用された、そして現在を要約する。
我々は50以上の例法を用いて高次分類法の概念を説明し,それに従って分類する。
論文 参考訳(メタデータ) (2021-05-15T09:52:00Z) - Computational Emotion Analysis From Images: Recent Advances and Future
Directions [79.05003998727103]
本章では,画像感情分析(IEA)を計算的観点から導入することを目的としている。
心理学の一般的な感情表現モデルから始めます。
そして、研究者たちが解決しようとしている重要な計算問題を定義します。
論文 参考訳(メタデータ) (2021-03-19T13:33:34Z) - Formalising Concepts as Grounded Abstractions [68.24080871981869]
このレポートは、表現学習が生データから概念を誘導する方法を示しています。
このレポートの主な技術的目標は、表現学習のテクニックが概念空間の格子理論的定式化とどのように結婚できるかを示すことである。
論文 参考訳(メタデータ) (2021-01-13T15:22:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。