論文の概要: Axiomatic Foundations of Counterfactual Explanations
- arxiv url: http://arxiv.org/abs/2602.04028v1
- Date: Tue, 03 Feb 2026 21:34:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.280436
- Title: Axiomatic Foundations of Counterfactual Explanations
- Title(参考訳): 反現実的説明の公理的基礎
- Authors: Leila Amgoud, Martin Cooper,
- Abstract要約: カウンターファクトは最も説得力のある説明の1つとして現れてきた。
既存の説明者は、一つの種類の反事実に焦点を当てており、局所的な説明に制限されている。
本稿では, 反現実的説明者にとって望ましい性質の集合の上に構築された公理的枠組みを紹介する。
- 参考スコア(独自算出の注目度): 5.285396202883409
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explaining autonomous and intelligent systems is critical in order to improve trust in their decisions. Counterfactuals have emerged as one of the most compelling forms of explanation. They address ``why not'' questions by revealing how decisions could be altered. Despite the growing literature, most existing explainers focus on a single type of counterfactual and are restricted to local explanations, focusing on individual instances. There has been no systematic study of alternative counterfactual types, nor of global counterfactuals that shed light on a system's overall reasoning process. This paper addresses the two gaps by introducing an axiomatic framework built on a set of desirable properties for counterfactual explainers. It proves impossibility theorems showing that no single explainer can satisfy certain axiom combinations simultaneously, and fully characterizes all compatible sets. Representation theorems then establish five one-to-one correspondences between specific subsets of axioms and the families of explainers that satisfy them. Each family gives rise to a distinct type of counterfactual explanation, uncovering five fundamentally different types of counterfactuals. Some of these correspond to local explanations, while others capture global explanations. Finally, the framework situates existing explainers within this taxonomy, formally characterizes their behavior, and analyzes the computational complexity of generating such explanations.
- Abstract(参考訳): 自律的でインテリジェントなシステムを説明することは、彼らの決定に対する信頼を改善するために重要です。
カウンターファクトは最も説得力のある説明の1つとして現れてきた。
意思決定をどのように変えられるかを明らかにすることで、‘なぜ’質問に対処する。
文献の増大にもかかわらず、既存の説明者は単一種類のカウンターファクトに焦点を合わせ、個々の事例に焦点を絞った局所的な説明に制限されている。
代替のカウンターファクトタイプや、システム全体の推論プロセスに光を当てる世界的なカウンターファクトタイプについては、体系的な研究は行われていない。
本稿では,反現実的説明のための望ましい性質のセット上に構築された公理的枠組みを導入することにより,この2つのギャップに対処する。
これは、一つの説明者が特定の公理結合を同時に満たすことができないことを示す不合理性定理を証明し、すべての互換集合を完全に特徴づける。
表現定理は、公理の特定の部分集合とそれらを満たす説明者の族の間の5つの1対1対応を確立する。
それぞれの家族は異なる種類の反事実的説明を生じさせ、基本的に異なる5種類の反事実を発見できる。
これらのいくつかは局所的な説明に対応しており、他のものはグローバルな説明を捉えている。
最後に、このフレームワークは、この分類学における既存の説明を定式化し、それらの振る舞いを正式に特徴づけ、そのような説明を生成する際の計算の複雑さを分析する。
関連論文リスト
- Complexity of Faceted Explanations in Propositional Abduction [6.674752821781092]
帰納的推論は、観察された症状や症状を説明することを目的とした、一般的な非単調なパラダイムである。
命題推論では、命題式による知識の特定に焦点をあてる。
意思決定とカウントの間の推論を検討し、説明をよりよく理解できるようにします。
論文 参考訳(メタデータ) (2025-07-20T13:50:26Z) - Ranking Counterfactual Explanations [7.066382982173528]
説明は2つの重要な疑問に対処できる:「なぜこの結果になるのか?」 (実際) と「なぜもう1つではないのか?」 (数値) である。
本稿では, 反事実的説明の形式的定義, 満足する性質の証明, 事実的説明との関係について検討する。
論文 参考訳(メタデータ) (2025-03-20T03:04:05Z) - Axiomatic Characterisations of Sample-based Explainers [8.397730500554047]
サンプルやデータセットから特徴に基づく説明を生成する説明を精査する。
我々は、他のすべてと互換性のある2つの重要な特性を満たす説明者のファミリー全体を識別する。
我々は、説明の存在と不確実なグローバル整合性を保証する最初の(広義の)説明者を紹介する。
論文 参考訳(メタデータ) (2024-08-09T07:10:07Z) - Formal Proofs as Structured Explanations: Proposing Several Tasks on Explainable Natural Language Inference [0.16317061277457]
自然言語推論の基礎となる推論過程をモデル化できる推論フレームワークを提案する。
このフレームワークは、形式論理におけるよく研究された証明システムであるセマンティック・テーブルー法に基づいている。
本稿では、自然言語推論タスクを構造化された説明で定義する方法について述べる。
論文 参考訳(メタデータ) (2023-11-15T01:24:09Z) - HOP, UNION, GENERATE: Explainable Multi-hop Reasoning without Rationale
Supervision [118.0818807474809]
本研究は、合理的な監督なしに説明可能なマルチホップQAシステムを訓練するための原則的確率論的アプローチを提案する。
提案手法は,集合としての有理を明示的にモデル化し,文書と文間の相互作用を文書内で捉えることによって,マルチホップ推論を行う。
論文 参考訳(メタデータ) (2023-05-23T16:53:49Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Zero-Shot Classification by Logical Reasoning on Natural Language
Explanations [56.42922904777717]
我々はCLOREフレームワークを提案する(説明の論理的推論による分類)。
CLOREは、説明を論理構造にパースし、入力のthess構造に沿って明示的に理由付け、分類スコアを生成する。
また、我々のフレームワークは視覚的モダリティのゼロショット分類にまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-11-07T01:05:11Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。