論文の概要: Even-if Explanations: Formal Foundations, Priorities and Complexity
- arxiv url: http://arxiv.org/abs/2401.10938v1
- Date: Wed, 17 Jan 2024 11:38:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-28 15:56:53.281873
- Title: Even-if Explanations: Formal Foundations, Priorities and Complexity
- Title(参考訳): 偶発的説明:正式な基礎、優先順位、複雑さ
- Authors: Gianvincenzo Alfano, Sergio Greco, Domenico Mandaglio, Francesco
Parisi, Reza Shahbazian and Irina Trubitsyna
- Abstract要約: 線形モデルとツリーモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
ユーザが好みに基づいて説明をパーソナライズすることのできる、嗜好に基づくフレームワークを提案する。
- 参考スコア(独自算出の注目度): 19.03510917663375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: EXplainable AI has received significant attention in recent years. Machine
learning models often operate as black boxes, lacking explainability and
transparency while supporting decision-making processes. Local post-hoc
explainability queries attempt to answer why individual inputs are classified
in a certain way by a given model. While there has been important work on
counterfactual explanations, less attention has been devoted to semifactual
ones. In this paper, we focus on local post-hoc explainability queries within
the semifactual `even-if' thinking and their computational complexity among
different classes of models, and show that both linear and tree-based models
are strictly more interpretable than neural networks. After this, we introduce
a preference-based framework that enables users to personalize explanations
based on their preferences, both in the case of semifactuals and
counterfactuals, enhancing interpretability and user-centricity. Finally, we
explore the complexity of several interpretability problems in the proposed
preference-based framework and provide algorithms for polynomial cases.
- Abstract(参考訳): 説明可能なAIは近年大きな注目を集めている。
機械学習モデルは、しばしばブラックボックスとして動作し、意思決定プロセスをサポートする一方で説明可能性と透明性を欠いている。
ローカルなポストホックな説明可能性クエリは、与えられたモデルによって個々の入力が特定の方法で分類される理由に答えようとする。
反事実的説明に関する重要な研究はあったが、半事実的説明にはあまり関心が向けられていない。
本稿では,半事実的"even-if"思考における局所的なポストホックな説明可能性クエリと,モデルの異なるクラス間の計算複雑性に着目し,線形モデルと木ベースモデルの両方がニューラルネットワークよりも厳密に解釈可能であることを示す。
そこで,本稿では,ユーザの嗜好に基づく説明のパーソナライズを可能にする,嗜好に基づくフレームワークを提案する。
最後に,提案する選好ベースのフレームワークにおけるいくつかの解釈可能性問題の複雑性を調べ,多項式の場合のアルゴリズムを提供する。
関連論文リスト
- Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - TimeSHAP: Explaining Recurrent Models through Sequence Perturbations [3.1498833540989413]
リカレントニューラルネットワークは、多くの機械学習ドメインで標準的なビルディングブロックである。
これらのモデルにおける複雑な意思決定はブラックボックスと見なされ、正確性と解釈可能性の間の緊張を生み出す。
本研究では,モデルに依存しないリカレント説明器であるTimeSHAPを提示することにより,これらのギャップを埋めることに寄与する。
論文 参考訳(メタデータ) (2020-11-30T19:48:57Z) - Discriminatory Expressions to Produce Interpretable Models in Short
Documents [0.0]
State-of-the-artモデルは、社会的影響のある問題の解決に使用すべきではないブラックボックスである。
本稿では,少ないが有意義な特徴を用いることで,理解度を向上させる機能選択機構を提案する。
論文 参考訳(メタデータ) (2020-11-27T19:00:50Z) - Efficient computation of contrastive explanations [8.132423340684568]
対照的な説明と反実的な説明の関係について検討する。
本稿では,多くの標準機械学習モデルの正値(有理)を効率的に計算する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-06T11:50:28Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Text Modular Networks: Learning to Decompose Tasks in the Language of
Existing Models [61.480085460269514]
本稿では,既存のモデルで解けるより単純なモデルに分解することで,複雑なタスクを解くための解釈可能なシステムを構築するためのフレームワークを提案する。
我々はこのフレームワークを用いて、ニューラルネットワークのファクトイド単一スパンQAモデルとシンボリック電卓で答えられるサブクエストに分解することで、マルチホップ推論問題に答えられるシステムであるModularQAを構築する。
論文 参考訳(メタデータ) (2020-09-01T23:45:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。