論文の概要: Abductive explanations of classifiers under constraints: Complexity and properties
- arxiv url: http://arxiv.org/abs/2409.12154v1
- Date: Wed, 18 Sep 2024 17:15:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 16:35:11.486911
- Title: Abductive explanations of classifiers under constraints: Complexity and properties
- Title(参考訳): 制約下の分類器の帰納的説明:複雑さと性質
- Authors: Martin Cooper, Leila Amgoud,
- Abstract要約: 制約を考慮に入れた3つの新しいタイプの説明を提案する。
それらは、機能空間全体から、あるいはデータセットから生成できる。
我々は、冗長で過剰なAXpを捨てるには、カバレッジが十分であることを示す。
- 参考スコア(独自算出の注目度): 6.629765271909503
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Abductive explanations (AXp's) are widely used for understanding decisions of classifiers. Existing definitions are suitable when features are independent. However, we show that ignoring constraints when they exist between features may lead to an explosion in the number of redundant or superfluous AXp's. We propose three new types of explanations that take into account constraints and that can be generated from the whole feature space or from a sample (such as a dataset). They are based on a key notion of coverage of an explanation, the set of instances it explains. We show that coverage is powerful enough to discard redundant and superfluous AXp's. For each type, we analyse the complexity of finding an explanation and investigate its formal properties. The final result is a catalogue of different forms of AXp's with different complexities and different formal guarantees.
- Abstract(参考訳): 帰納的説明(AXp)は、分類器の決定を理解するために広く使われている。
既存の定義は、機能が独立している場合に適しています。
しかし,特徴間の制約を無視すると,冗長あるいは過剰なAXpの数が爆発的に増加する可能性が示唆された。
制約を考慮に入れ、機能空間全体から、あるいはサンプル(データセットなど)から生成できる3つの新しいタイプの説明を提案する。
それらは、説明のカバレッジという重要な概念、すなわちその説明するインスタンスの集合に基づいている。
我々は、冗長で過剰なAXpを捨てるには、カバレッジが十分であることを示す。
各タイプについて、説明を見つける複雑さを分析し、その形式的性質を調べる。
最終的な結果は、異なる複雑さと異なる正式な保証を持つ異なる形式のAXpのカタログである。
関連論文リスト
- Axiomatic Characterisations of Sample-based Explainers [8.397730500554047]
サンプルやデータセットから特徴に基づく説明を生成する説明を精査する。
我々は、他のすべてと互換性のある2つの重要な特性を満たす説明者のファミリー全体を識別する。
我々は、説明の存在と不確実なグローバル整合性を保証する最初の(広義の)説明者を紹介する。
論文 参考訳(メタデータ) (2024-08-09T07:10:07Z) - Ensemble of Counterfactual Explainers [17.88531216690148]
本稿では,弱い説明者を増やす反事実的説明者のアンサンブルを提案し,そのような特性のサブセットのみを提供する。
このアンサンブルは、インスタンスと機能のサンプルで弱い説明器を実行し、多様性駆動の選択関数を利用して結果を組み合わせる。
論文 参考訳(メタデータ) (2023-08-29T10:21:50Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - ELUDE: Generating interpretable explanations via a decomposition into
labelled and unlabelled features [23.384134043048807]
モデルの予測を2つの部分に分解する説明フレームワークを開発する。
後者を識別することで、モデルの"説明できない"部分を分析することができます。
また,同機能領域で訓練された複数のモデルに対して,非競合機能セットが一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-06-15T17:36:55Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - A Formal Approach to Explainability [100.12889473240237]
本研究では,説明生成関数と学習モデルの中間表現との関係について検討する。
我々は、新しい説明を構築する方法として、説明の交わりと結合について研究する。
論文 参考訳(メタデータ) (2020-01-15T10:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。