論文の概要: DeepFaith: A Domain-Free and Model-Agnostic Unified Framework for Highly Faithful Explanations
- arxiv url: http://arxiv.org/abs/2508.03586v1
- Date: Tue, 05 Aug 2025 15:53:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.055213
- Title: DeepFaith: A Domain-Free and Model-Agnostic Unified Framework for Highly Faithful Explanations
- Title(参考訳): DeepFaith: ドメインフリーでモデルに依存しない、高度に忠実な説明のための統一フレームワーク
- Authors: Yuhan Guo, Lizhong Ding, Shihan Jia, Yanyu Ren, Pengqi Li, Jiarun Fu, Changsheng Li, Ye yuan, Guoren Wang,
- Abstract要約: 本稿では,忠実度を前提としたドメインフリーでモデルに依存しない統一的説明フレームワークを提案する。
複数の広く利用されている信頼度尺度の統一的な定式化を確立することにより、最適な説明目的を導出する。
DeepFaithは,すべての基準手法と比較して,10の指標において最も総合的な忠実性を実現していることを示す。
- 参考スコア(独自算出の注目度): 31.665185832744022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) builds trust in complex systems through model attribution methods that reveal the decision rationale. However, due to the absence of a unified optimal explanation, existing XAI methods lack a ground truth for objective evaluation and optimization. To address this issue, we propose Deep architecture-based Faith explainer (DeepFaith), a domain-free and model-agnostic unified explanation framework under the lens of faithfulness. By establishing a unified formulation for multiple widely used and well-validated faithfulness metrics, we derive an optimal explanation objective whose solution simultaneously achieves optimal faithfulness across these metrics, thereby providing a ground truth from a theoretical perspective. We design an explainer learning framework that leverages multiple existing explanation methods, applies deduplicating and filtering to construct high-quality supervised explanation signals, and optimizes both pattern consistency loss and local correlation to train a faithful explainer. Once trained, DeepFaith can generate highly faithful explanations through a single forward pass without accessing the model being explained. On 12 diverse explanation tasks spanning 6 models and 6 datasets, DeepFaith achieves the highest overall faithfulness across 10 metrics compared to all baseline methods, highlighting its effectiveness and cross-domain generalizability.
- Abstract(参考訳): 説明可能なAI(XAI)は、決定の根拠を明らかにするためのモデル属性メソッドを通じて、複雑なシステムに対する信頼を構築する。
しかし、統一された最適説明がないため、既存のXAI手法は客観的評価と最適化の根拠を欠いている。
この問題に対処するために,ドメインフリーでモデルに依存しない統一的な説明フレームワークであるDeep Architecture-based Faith explainer (DeepFaith)を提案する。
複数の広く用いられている信頼度尺度の統一的な定式化を確立することにより、これらの指標をまたいで最適忠実度を同時に達成する最適説明目標を導出し、理論的観点から基礎的真理を与える。
本稿では,複数の既存説明手法を活用した説明学習フレームワークを設計し,高品質な教師付き説明信号の構築にデ複製とフィルタリングを適用し,パターンの整合性損失と局所相関を最適化し,忠実な説明器を訓練する。
トレーニングが完了すると、DeepFaithはモデルにアクセスすることなく、1つのフォワードパスを通じて非常に忠実な説明を生成することができる。
6つのモデルと6つのデータセットにまたがる12の多様な説明タスクにおいて、DeepFaithは、すべてのベースラインメソッドと比較して10のメトリクスにまたがる全体的な忠実度を達成し、その有効性とドメイン間の一般化性を強調している。
関連論文リスト
- On the Fundamental Impossibility of Hallucination Control in Large Language Models [0.0]
本稿では,非自明な知識集約を実現するLLMが,真に整合した知識表現を同時に達成できないという,基本的な不合理性定理を確立する。
この不可能性は工学的な制限ではなく、情報集約自体の数学的構造から生じる。
幻覚と想像力が数学的に同一現象であることを示すことによって、情報保存の必要な違反において、先進的なAIシステムにおいてこれらの行動を管理するための原則的基盤を提供する。
論文 参考訳(メタデータ) (2025-06-04T23:28:39Z) - Logic Explanation of AI Classifiers by Categorical Explaining Functors [5.311276815905217]
本稿では,抽出された説明のコヒーレンスと忠実性を確保するための理論的基礎的アプローチを提案する。
概念実証として,合成ベンチマークを用いて提案した理論構造を検証した。
論文 参考訳(メタデータ) (2025-03-20T14:50:06Z) - A Causal Lens for Evaluating Faithfulness Metrics [13.755228271325205]
本稿では,自然言語説明のための忠実度指標を評価するためのフレームワークである因果診断について述べる。
我々のフレームワークは因果診断の概念を採用し、モデル編集手法を用いて忠実で不誠実な説明ペアを生成する。
論文 参考訳(メタデータ) (2025-02-26T05:35:53Z) - Solving the enigma: Enhancing faithfulness and comprehensibility in explanations of deep networks [3.9584068556746246]
本稿では,説明の正確性と理解性の両方を最大化することに集中して,ディープネットワークの説明可能性を高めるために設計された新しいフレームワークを提案する。
我々のフレームワークは、複数の確立されたXAI手法の出力を統合し、"説明(explanation)"と呼ばれる非線形ニューラルネットワークモデルを活用し、統一的で最適な説明を構築する。
論文 参考訳(メタデータ) (2024-05-16T11:49:08Z) - Local Universal Explainer (LUX) -- a rule-based explainer with factual, counterfactual and visual explanations [7.673339435080445]
Local Universal Explainer (LUX) は、現実的、対実的、視覚的な説明を生成できるルールベースの説明器である。
これは、決定木アルゴリズムの修正版に基づいており、斜め分割とSHAPのような重要なXAIメソッドとの統合を可能にする。
提案手法を実データと合成データセットで検証し, LORE, EXPLAN, Anchorなどの最先端のルールベースの説明器と比較した。
論文 参考訳(メタデータ) (2023-10-23T13:04:15Z) - Faithful Explanations of Black-box NLP Models Using LLM-generated
Counterfactuals [67.64770842323966]
NLPシステムの予測に関する因果的説明は、安全性を確保し、信頼を確立するために不可欠である。
既存の手法は、しばしばモデル予測を効果的または効率的に説明できない。
本稿では, 対物近似(CF)の2つの手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T07:31:04Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Language Models with Rationality [57.37201135072838]
大規模言語モデル(LLM)は質問応答(QA)に熟練している
答えが潜んでいる「信条」からどのように従うか(あるいはたとえも)は必ずしも明確ではない。
論文 参考訳(メタデータ) (2023-05-23T17:04:25Z) - Don't Explain Noise: Robust Counterfactuals for Randomized Ensembles [50.81061839052459]
我々は確率論的問題として、堅牢な対実的説明の生成を定式化する。
アンサンブルモデルのロバスト性とベース学習者のロバスト性との関係を示す。
本手法は, 反実的説明から初期観測までの距離をわずかに増加させるだけで, 高いロバスト性を実現する。
論文 参考訳(メタデータ) (2022-05-27T17:28:54Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。