論文の概要: Uncovering Bugs in Formal Explainers: A Case Study with PyXAI
- arxiv url: http://arxiv.org/abs/2511.03169v1
- Date: Wed, 05 Nov 2025 04:35:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.321279
- Title: Uncovering Bugs in Formal Explainers: A Case Study with PyXAI
- Title(参考訳): フォーマルな説明者におけるバグの発見--PyXAIを事例として
- Authors: Xuanxiang Huang, Yacine Izza, Alexey Ignatiev, Joao Marques-Silva,
- Abstract要約: 本稿では,形式的説明書を検証するための新しい手法を開発し,公開形式的説明書PyXAIの評価について報告する。
この論文は、実験で分析されたほとんどのデータセットについて、PyXAIが計算した誤った説明の存在を文書化している。
- 参考スコア(独自算出の注目度): 14.77446164678336
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Formal explainable artificial intelligence (XAI) offers unique theoretical guarantees of rigor when compared to other non-formal methods of explainability. However, little attention has been given to the validation of practical implementations of formal explainers. This paper develops a novel methodology for validating formal explainers and reports on the assessment of the publicly available formal explainer PyXAI. The paper documents the existence of incorrect explanations computed by PyXAI on most of the datasets analyzed in the experiments, thereby confirming the importance of the proposed novel methodology for the validation of formal explainers.
- Abstract(参考訳): 形式的説明可能な人工知能(XAI)は、他の形式的でない説明可能性の方法と比較して、厳密さのユニークな理論的保証を提供する。
しかし、形式的な説明書の実践的な実装の検証にはほとんど注意が払われていない。
本稿では,形式的説明書を検証するための新しい手法を開発し,公開形式的説明書PyXAIの評価について報告する。
本論文は,PyXAI が解析したデータセットのほとんどについて,PyXAI が計算した誤った説明の存在を報告し,提案手法の重要性を確認した。
関連論文リスト
- Autoformalizer with Tool Feedback [52.334957386319864]
自動形式化は、数学的問題を自然言語から形式的ステートメントに変換することによって、ATP(Automated Theorem Proving)のデータ不足に対処する。
既存のフォーミュラライザは、構文的妥当性とセマンティック一貫性を満たす有効なステートメントを一貫して生成することに苦慮している。
本稿では,ツールフィードバックを用いたオートフォーマライザ (ATF) を提案する。
論文 参考訳(メタデータ) (2025-10-08T10:25:12Z) - The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - On Formal Feature Attribution and Its Approximation [37.3078859524959]
本稿では,形式的説明列挙に基づく特徴属性に対する形式的XAIの応用法を提案する。
この問題の実際的な複雑さを考慮し, 正確なFFAを近似する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T04:20:36Z) - From Robustness to Explainability and Back Again [3.7950144463212134]
本稿では、形式的説明可能性のスケーラビリティの低さに対処し、形式的説明を計算するための新しい効率的なアルゴリズムを提案する。
提案アルゴリズムは、代わりに複数のクエリに答えることによって説明を計算し、そのようなクエリの数は、機能数に対して最も線形であるように頑健である。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。