論文の概要: Towards Human-Compatible XAI: Explaining Data Differentials with Concept
Induction over Background Knowledge
- arxiv url: http://arxiv.org/abs/2209.13710v1
- Date: Tue, 27 Sep 2022 21:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 16:55:07.012146
- Title: Towards Human-Compatible XAI: Explaining Data Differentials with Concept
Induction over Background Knowledge
- Title(参考訳): XAI : 背景知識を用いた概念誘導によるデータ差分の記述
- Authors: Cara Widmer, Md Kamruzzaman Sarker, Srikanth Nadella, Joshua Fiechter,
Ion Juvina, Brandon Minnery, Pascal Hitzler, Joshua Schwartz, Michael Raymer
- Abstract要約: 説明可能なAI(XAI)の文脈でデータ差分を説明するために,概念帰納法が利用できることを示す。
提案手法は,ウィキペディアのカテゴリ階層を背景知識としてキュレートした,大規模なクラス階層を利用する。
- 参考スコア(独自算出の注目度): 2.803567242358594
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Concept induction, which is based on formal logical reasoning over
description logics, has been used in ontology engineering in order to create
ontology (TBox) axioms from the base data (ABox) graph. In this paper, we show
that it can also be used to explain data differentials, for example in the
context of Explainable AI (XAI), and we show that it can in fact be done in a
way that is meaningful to a human observer. Our approach utilizes a large class
hierarchy, curated from the Wikipedia category hierarchy, as background
knowledge.
- Abstract(参考訳): 概念帰納法は記述論理に対する論理的論理的推論に基づいており、オントロジー(TBox)の公理をベースデータ(ABox)グラフから生成するためにオントロジー工学で用いられている。
本稿では、例えば説明可能なai(xai)の文脈において、データ微分を説明するのにも使用できることを示すとともに、人間の観察者にとって意味のある方法で実際に行うことができることを示す。
このアプローチでは、ウィキペディアのカテゴリ階層から収集した大きなクラス階層を背景知識として利用する。
関連論文リスト
- On the Value of Labeled Data and Symbolic Methods for Hidden Neuron Activation Analysis [1.55858752644861]
最先端技術は、隠されたノードのアクティベーションが、場合によっては人間にとって意味のある方法で解釈可能であることを示している。
本稿では,本手法が意味のある解釈を提供することを示す,新しいモデル非依存のポストホック説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T07:57:45Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Concept-Based Explanations for Tabular Data [0.0]
ディープニューラルネットワーク(DNN)のための概念に基づく説明可能性を提案する。
本研究では,人間レベルの直観に合致する解釈可能性を示す手法の有効性を示す。
また,DNNのどの層がどの層を学習したのかを定量化したTCAVに基づく公平性の概念を提案する。
論文 参考訳(メタデータ) (2022-09-13T02:19:29Z) - Diagnosing AI Explanation Methods with Folk Concepts of Behavior [70.10183435379162]
我々は「成功」は、その説明がどんな情報を含むかだけでなく、人間の説明者がどのような情報から理解するかにも依存すると考えている。
我々は、人間の説明による社会的帰属の枠組みとして、行動の民意的概念を用いる。
論文 参考訳(メタデータ) (2022-01-27T00:19:41Z) - Unsupervised Causal Binary Concepts Discovery with VAE for Black-box
Model Explanation [28.990604269473657]
データ X がクラス Y に分類されるのは、X textithas A, B と textitdoes が C を持っていないからである。
論文 参考訳(メタデータ) (2021-09-09T19:06:53Z) - CX-ToM: Counterfactual Explanations with Theory-of-Mind for Enhancing
Human Trust in Image Recognition Models [84.32751938563426]
我々は、深層畳み込みニューラルネットワーク(CNN)による決定を説明するための、新しい説明可能なAI(XAI)フレームワークを提案する。
単発応答として説明を生成するXAIの現在の手法とは対照的に,我々は反復的な通信プロセスとして説明を行う。
本フレームワークは,機械の心と人間の心の相違を媒介し,対話における説明文のシーケンスを生成する。
論文 参考訳(メタデータ) (2021-09-03T09:46:20Z) - Explainable AI for Classification using Probabilistic Logic Inference [9.656846523452502]
説明可能な分類法を提案する。
本手法は,まず学習データから記号的知識ベースを構築し,その知識ベース上で線形プログラミングによる確率的推論を行う。
これは、ある分類を説明として責任を負う決定的な特徴を特定し、アートリー値ベースの手法であるSHAPに類似した結果を生成する。
論文 参考訳(メタデータ) (2020-05-05T11:39:23Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。