論文の概要: ASTERYX : A model-Agnostic SaT-basEd appRoach for sYmbolic and
score-based eXplanations
- arxiv url: http://arxiv.org/abs/2206.11900v1
- Date: Thu, 23 Jun 2022 08:37:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 13:26:16.824030
- Title: ASTERYX : A model-Agnostic SaT-basEd appRoach for sYmbolic and
score-based eXplanations
- Title(参考訳): ASTERYX : symbolic と score-based eXplanations のためのモデル非依存型 SaT-basEd appRoach
- Authors: Ryma Boumazouza (CRIL), Fahima Cheikh-Alili (CRIL), Bertrand Mazure
(CRIL), Karim Tabia (CRIL)
- Abstract要約: 本稿では,記号的説明とスコアに基づく説明の両方を生成できるASTERYXという汎用的アプローチを提案する。
実験結果から,提案手法の有効性と,その記号的およびスコアに基づく説明法の有効性が示唆された。
- 参考スコア(独自算出の注目度): 26.500149465292246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ever increasing complexity of machine learning techniques used more and
more in practice, gives rise to the need to explain the predictions and
decisions of these models, often used as black-boxes. Explainable AI approaches
are either numerical feature-based aiming to quantify the contribution of each
feature in a prediction or symbolic providing certain forms of symbolic
explanations such as counterfactuals. This paper proposes a generic agnostic
approach named ASTERYX allowing to generate both symbolic explanations and
score-based ones. Our approach is declarative and it is based on the encoding
of the model to be explained in an equivalent symbolic representation, this
latter serves to generate in particular two types of symbolic explanations
which are sufficient reasons and counterfactuals. We then associate scores
reflecting the relevance of the explanations and the features w.r.t to some
properties. Our experimental results show the feasibility of the proposed
approach and its effectiveness in providing symbolic and score-based
explanations.
- Abstract(参考訳): 機械学習の技術がますます複雑になるにつれて、ブラックボックスとしてよく使われるこれらのモデルの予測と決定を説明する必要性が高まる。
説明可能なAIアプローチは、予測における各特徴の寄与を定量化することを目的とした数値的特徴ベースか、あるいは、反事実のようなある種の記号的説明を提供する象徴的手法である。
本稿では,記号的説明とスコアに基づく説明の両方を生成できるasteryxという汎用的非依存アプローチを提案する。
我々のアプローチは宣言的であり、等価な象徴表現で説明すべきモデルの符号化に基づいているが、後者は十分な理由と反事実である、特に2種類の象徴的説明を生成するのに役立つ。
次に、いくつかの特性に対する説明と特徴の関連性を反映したスコアを関連付ける。
本研究は,提案手法の有効性と,シンボリックおよびスコアベースによる説明の有効性を示す。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - A Recursive Bateson-Inspired Model for the Generation of Semantic Formal
Concepts from Spatial Sensory Data [77.34726150561087]
本稿では,複雑な感覚データから階層構造を生成するための記号のみの手法を提案する。
このアプローチは、概念や概念の創始の鍵としてのバテソンの差異の概念に基づいている。
このモデルは、トレーニングなしでかなりリッチだが人間に読まれる概念表現を生成することができる。
論文 参考訳(メタデータ) (2023-07-16T15:59:13Z) - Disentangled Explanations of Neural Network Predictions by Finding Relevant Subspaces [14.70409833767752]
説明可能なAIは、ニューラルネットワークのような複雑なMLモデルのブラックボックスの性質を克服し、予測の説明を生成することを目的としている。
そこで本研究では,PCA や ICA に見られる原理を説明に拡張する2つの新しい分析法を提案する。
これらの新しい分析は、主成分分析 (PRCA) と解離関連部分空間分析 (DRSA) と呼ばれ、ばらつきや硬変の代わりに関連性を最大化する。
論文 参考訳(メタデータ) (2022-12-30T18:04:25Z) - A Model-Agnostic SAT-based Approach for Symbolic Explanation Enumeration [26.500149465292246]
特徴量と出力の関係を解析することにより,単一予測を局所的に説明するための説明を生成する。
提案手法では,予測モデルの命題エンコーディングとSATに基づくセッティングを用いて,2種類の記号的説明を生成する。
論文 参考訳(メタデータ) (2022-06-23T08:35:47Z) - A Symbolic Approach for Counterfactual Explanations [18.771531343438227]
本稿では,分類器の予測に反実的な説明を与えるための新しいシンボリックアプローチを提案する。
我々のアプローチは、等価なCNF式で分類器の決定関数を符号化するという意味で象徴的である。
論文 参考訳(メタデータ) (2022-06-20T08:38:54Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Evaluating Explanations for Reading Comprehension with Realistic
Counterfactuals [26.641834518599303]
本稿では,機械読解タスクの説明を評価する手法を提案する。
説明は、現実的な反現実的な入力シナリオのセットに関して、RCモデルのハイレベルな振る舞いを理解することを可能にします。
本分析は,トークンレベルの属性よりもRCに適していることを示す。
論文 参考訳(メタデータ) (2021-04-09T17:55:21Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。