論文の概要: Towards the Linear Algebra Based Taxonomy of XAI Explanations
- arxiv url: http://arxiv.org/abs/2301.13138v1
- Date: Mon, 30 Jan 2023 18:21:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 13:29:48.002469
- Title: Towards the Linear Algebra Based Taxonomy of XAI Explanations
- Title(参考訳): 線形代数に基づくXAI解説の分類学に向けて
- Authors: Sven Nomm
- Abstract要約: 説明可能な人工知能(XAI)の手法は、なぜ特定の予測や推定が行われたのかという疑問に答えるために開発された。
文学におけるXAIの提案は、主に人間エージェントの関与に関する説明の区別に焦点を絞ったものである。
本稿では,局所的な説明のための単純線形代数に基づく分類法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an alternative approach to the basic taxonomy of
explanations produced by explainable artificial intelligence techniques.
Methods of Explainable Artificial Intelligence (XAI) were developed to answer
the question why a certain prediction or estimation was made, preferably in
terms easy to understand by the human agent. XAI taxonomies proposed in the
literature mainly concentrate their attention on distinguishing explanations
with respect to involving the human agent, which makes it complicated to
provide a more mathematical approach to distinguish and compare different
explanations. This paper narrows its attention to the cases where the data set
of interest belongs to $\mathbb{R} ^n$ and proposes a simple linear
algebra-based taxonomy for local explanations.
- Abstract(参考訳): 本稿では,説明可能な人工知能技術による説明の基本的な分類への代替手法を提案する。
説明可能な人工知能(xai, descriptionable artificial intelligence, xai)は、特定の予測や推定が行われた理由を、好ましくは人間のエージェントが理解しやすい言葉で答えるために開発された。
文献で提案されたXAI分類学は、主に人間エージェントの関与に関する説明を区別することに集中しており、異なる説明を識別・比較するための数学的アプローチを複雑にしている。
本稿では、興味のあるデータセットが$\mathbb{R} ^n$に属する場合に注意を絞り、局所的な説明のために単純線型代数に基づく分類法を提案する。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Incremental XAI: Memorable Understanding of AI with Incremental Explanations [13.460427339680168]
本稿では、人間の認知能力を活用して知識を蓄積し、より詳細な説明をインクリメンタルに受け取り、より詳細な説明を提供することを提案する。
我々はインクリメンタルXAIを導入し、一般的なインスタンスと非典型インスタンスの説明を自動的に分割する。
記憶力は、基本因子を再利用し、非典型例で示される因子の数を減らすことで改善される。
論文 参考訳(メタデータ) (2024-04-10T04:38:17Z) - Interpretability is not Explainability: New Quantitative XAI Approach
with a focus on Recommender Systems in Education [0.0]
我々は,XAIにおける重要な概念と関係の明確かつ曖昧な理解を提供する新しい分類法を提案する。
私たちのアプローチは、既存の定義やフレームワークの体系的な分析に根ざしています。
この包括的分類学は、将来の研究のための共通語彙を確立することを目的としている。
論文 参考訳(メタデータ) (2023-09-18T11:59:02Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Probing Taxonomic and Thematic Embeddings for Taxonomic Information [2.9874726192215157]
分類学的および主題的関連性をモデル化することは、包括的な自然言語理解を持つAIを構築する上で重要である。
我々は,新しいハイポニム・ハイポニム探索タスクを設計し,分類学およびテーマSGNSとGloVeの埋め込みに関する比較調査を行う。
両種類の埋め込みがいくつかの分類情報をエンコードしていることを示す実験は、エンコーダアーキテクチャと埋め込み訓練データの両方に独立して関係している。
論文 参考訳(メタデータ) (2023-01-25T15:59:26Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Rational Shapley Values [0.0]
ポストホックな説明可能な人工知能(XAI)の一般的なツールは、文脈に敏感であるか、要約が難しい。
非互換なアプローチを合成し拡張する新しいXAI手法である、エミュレーション型シェープリー値を導入する。
私は、意思決定理論や因果モデリングのツールを活用して、XAIにおける多くの既知の課題を解決する実用的なアプローチを定式化し、実装します。
論文 参考訳(メタデータ) (2021-06-18T15:45:21Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。