論文の概要: Logic Explanation of AI Classifiers by Categorical Explaining Functors
- arxiv url: http://arxiv.org/abs/2503.16203v1
- Date: Thu, 20 Mar 2025 14:50:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:34:26.763343
- Title: Logic Explanation of AI Classifiers by Categorical Explaining Functors
- Title(参考訳): 分類型説明ファクタによるAI分類器の論理的記述
- Authors: Stefano Fioravanti, Francesco Giannini, Paolo Frazzetto, Fabio Zanasi, Pietro Barbiero,
- Abstract要約: 本稿では,抽出された説明のコヒーレンスと忠実性を確保するための理論的基礎的アプローチを提案する。
概念実証として,合成ベンチマークを用いて提案した理論構造を検証した。
- 参考スコア(独自算出の注目度): 5.311276815905217
- License:
- Abstract: The most common methods in explainable artificial intelligence are post-hoc techniques which identify the most relevant features used by pretrained opaque models. Some of the most advanced post hoc methods can generate explanations that account for the mutual interactions of input features in the form of logic rules. However, these methods frequently fail to guarantee the consistency of the extracted explanations with the model's underlying reasoning. To bridge this gap, we propose a theoretically grounded approach to ensure coherence and fidelity of the extracted explanations, moving beyond the limitations of current heuristic-based approaches. To this end, drawing from category theory, we introduce an explaining functor which structurally preserves logical entailment between the explanation and the opaque model's reasoning. As a proof of concept, we validate the proposed theoretical constructions on a synthetic benchmark verifying how the proposed approach significantly mitigates the generation of contradictory or unfaithful explanations.
- Abstract(参考訳): 説明可能な人工知能の最も一般的な方法は、事前訓練された不透明なモデルで使用される最も関連性の高い特徴を特定するポストホック技術である。
最も先進的なポストホック手法のいくつかは、論理規則の形で入力特徴の相互相互作用を説明する説明を生成することができる。
しかしながら、これらの手法は、抽出された説明とモデルの基礎となる推論との整合性を保証するのに失敗することが多い。
このギャップを埋めるために,抽出された説明のコヒーレンスと忠実性を確保するための理論的な基礎的なアプローチを提案し,これは現在のヒューリスティックなアプローチの限界を越えている。
この目的のために、圏論から説明関手を導入し、説明と不透明モデルの推論の間の論理的関係を構造的に保存する。
概念実証として,提案手法が矛盾や不誠実な説明の発生を著しく軽減するかどうかを検証した,合成ベンチマーク上での理論的構成を検証した。
関連論文リスト
- Dialogue-based Explanations for Logical Reasoning using Structured Argumentation [0.06138671548064355]
我々は、最先端技術の構造的弱点を特定し、これらの問題に対処するための一般的な議論に基づくアプローチを提案する。
我々の研究は、問合せ応答を計算し、説明するための弁証法として対話モデルを提供する。
これにより、既存の説明形式よりも表現的かつ直感的な弁証的証明木を説明として構築することができる。
論文 参考訳(メタデータ) (2025-02-16T22:26:18Z) - DiConStruct: Causal Concept-based Explanations through Black-Box
Distillation [9.735426765564474]
本稿では,概念ベースと因果性の両方を考慮した説明手法であるDiConStructを提案する。
本報告では, ブラックボックス機械学習モデルに対する蒸留モデルとして, その予測を近似し, それぞれの説明を生成する。
論文 参考訳(メタデータ) (2024-01-16T17:54:02Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Abductive Commonsense Reasoning Exploiting Mutually Exclusive
Explanations [118.0818807474809]
帰納的推論は、イベントのもっともらしい説明を見つけることを目的としている。
自然言語処理における帰納的推論のための既存のアプローチは、しばしば監督のために手動で生成されたアノテーションに依存している。
この研究は、ある文脈に対して、説明のサブセットのみが正しいという事実を活用する、帰納的コモンセンス推論のアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-24T01:35:10Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - A Formalisation of Abstract Argumentation in Higher-Order Logic [77.34726150561087]
本稿では,古典的高階論理へのエンコーディングに基づく抽象的議論フレームワークの表現手法を提案する。
対話型および自動推論ツールを用いた抽象的議論フレームワークのコンピュータ支援評価のための一様フレームワークを提供する。
論文 参考訳(メタデータ) (2021-10-18T10:45:59Z) - Entropy-based Logic Explanations of Neural Networks [24.43410365335306]
本稿では,ニューラルネットワークから論理的説明を抽出するエンド・ツー・エンドの微分可能な手法を提案する。
この方法はエントロピーに基づく基準に依存しており、最も関連する概念を自動的に識別する。
i) このエントロピーに基づく基準は, 臨床データからコンピュータビジョンへの安全クリティカル領域における簡潔な論理的説明の蒸留を可能にし, (ii) 提案手法は分類精度において最先端のホワイトボックスモデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-06-12T15:50:47Z) - Generating Commonsense Explanation by Extracting Bridge Concepts from
Reasoning Paths [128.13034600968257]
本稿では、まず、推論チェーンでテキストブリッジとして機能する基礎概念を抽出する手法を提案する。
推論プロセスを容易にするために,文と橋梁の概念の関連性を構築するために,外部コモンセンス知識を利用する。
橋梁の概念抽出モデルを設計し,まず三重奏を採点し,その経路を導出し,さらに弱い監督で橋梁の概念を選定する。
論文 参考訳(メタデータ) (2020-09-24T15:27:20Z) - Plausible Reasoning about EL-Ontologies using Concept Interpolation [27.314325986689752]
本稿では,モデル理論の明確な意味論に基づく帰納的機構を提案する。
我々は、カテゴリーベース誘導の認知モデルと密接に関連している強力なコモンセンス推論機構である推論に焦点を当てた。
論文 参考訳(メタデータ) (2020-06-25T14:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。