論文の概要: GradCFA: A Hybrid Gradient-Based Counterfactual and Feature Attribution Explanation Algorithm for Local Interpretation of Neural Networks
- arxiv url: http://arxiv.org/abs/2603.15373v1
- Date: Mon, 16 Mar 2026 14:49:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.509485
- Title: GradCFA: A Hybrid Gradient-Based Counterfactual and Feature Attribution Explanation Algorithm for Local Interpretation of Neural Networks
- Title(参考訳): GradCFA: ニューラルネットワークの局所的解釈のためのハイブリッド・グラディエント型対物および特徴属性説明アルゴリズム
- Authors: Jacob Sanderson, Hua Mao, Wai Lok Woo,
- Abstract要約: 2つの主要なXAIパラダイム、反事実的説明(CFX)と特徴帰属(FA)は、モデル解釈可能性において異なる役割を担っている。
本稿では,CFXとFAを組み合わせたハイブリッドフレームワークGradCFAを紹介する。
- 参考スコア(独自算出の注目度): 18.934170239661363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) is increasingly essential as AI systems are deployed in critical fields such as healthcare and finance, offering transparency into AI-driven decisions. Two major XAI paradigms, counterfactual explanations (CFX) and feature attribution (FA), serve distinct roles in model interpretability. This study introduces GradCFA, a hybrid framework combining CFX and FA to improve interpretability by explicitly optimizing feasibility, plausibility, and diversity - key qualities often unbalanced in existing methods. Unlike most CFX research focused on binary classification, GradCFA extends to multi-class scenarios, supporting a wider range of applications. We evaluate GradCFA's validity, proximity, sparsity, plausibility, and diversity against state-of-the-art methods, including Wachter, DiCE, CARE for CFX, and SHAP for FA. Results show GradCFA effectively generates feasible, plausible, and diverse counterfactuals while offering valuable FA insights. By identifying influential features and validating their impact, GradCFA advances AI interpretability. The code for implementation of this work can be found at: https://github.com/jacob-ws/GradCFs .
- Abstract(参考訳): 説明可能な人工知能(XAI)は、医療や金融といった重要な分野にAIシステムが配備され、AI主導の意思決定への透明性を提供するため、ますます重要になっている。
2つの主要なXAIパラダイム、反事実的説明(CFX)と特徴帰属(FA)は、モデル解釈可能性において異なる役割を担っている。
この研究では、CFXとFAを組み合わせたハイブリッドフレームワークであるGradCFAを紹介し、実現可能性、妥当性、多様性を明確に最適化することで、解釈可能性を改善する。
バイナリ分類に焦点を当てたほとんどのCFX研究とは異なり、GradCFAはマルチクラスシナリオに拡張され、幅広いアプリケーションをサポートする。
我々は, ワッハター, ディCE, CARE, CFX, SHAPなどの最先端手法に対するGradCFAの有効性, 近接性, 空間性, 可視性, 多様性を評価した。
結果は,GradCFAが有用なFAの洞察を提供しながら,効果的に実現可能で,妥当で,多種多様な偽物を生成することを示した。
影響力のある特徴を特定し、その影響を検証することで、GradCFAはAI解釈可能性を向上させる。
この作業を実装するためのコードは、https://github.com/jacob-ws/GradCFs を参照してください。
関連論文リスト
- Function Based Isolation Forest (FuBIF): A Unifying Framework for Interpretable Isolation-Based Anomaly Detection [46.53690373860206]
異常検出(AD)は、複雑なデータセットの外れ値を特定するアルゴリズムを通じて進化している。
本稿では、データセットの分岐に実値関数を使用できるIFの一般化である分離森林(FuBIF)を紹介する。
論文 参考訳(メタデータ) (2025-11-08T15:52:35Z) - Reliable and Reproducible Demographic Inference for Fairness in Face Analysis [63.46525489354455]
本稿では、従来のエンドツーエンドトレーニングをモジュラートランスファー学習アプローチで置き換える、完全に再現可能なDAIパイプラインを提案する。
このパイプラインは、正確性、公正性、そしてアイデンティティ内整合性によって定義される、新たに導入された堅牢性の概念の3つの次元にわたって監査する。
以上の結果から,提案手法は特に民族性において,強い基準線を上回り,その特性はより困難であることが示唆された。
論文 参考訳(メタデータ) (2025-10-23T12:22:02Z) - AFABench: A Generic Framework for Benchmarking Active Feature Acquisition [6.922744987645169]
AFABenchはActive Feature Acquisitionの最初のベンチマークフレームワークです。
静的,欲求,強化学習に基づくアプローチを含む,すべての主要カテゴリの代表的アルゴリズムを実装し,評価する。
我々の結果は、異なるAFA戦略間の重要なトレードオフを浮き彫りにし、将来の研究に実用的な洞察を提供する。
論文 参考訳(メタデータ) (2025-08-20T14:29:16Z) - Trans-XFed: An Explainable Federated Learning for Supply Chain Credit Assessment [4.475469482534038]
本稿では,連合学習と説明可能なAI技術を組み合わせてサプライチェーンクレジットアセスメントを行うTrans-XFedアーキテクチャを提案する。
提案モデルは,プライバシ,情報サイロ,クラス不均衡,非同一かつ独立に分散された(Non-IID)データ,サプライチェーンクレジットアセスメントにおけるモデル解釈可能性など,いくつかの重要な課題に対処することを目的としている。
論文 参考訳(メタデータ) (2025-08-19T10:20:57Z) - Feature-Based vs. GAN-Based Learning from Demonstrations: When and Why [50.191655141020505]
この調査は、デモから学ぶ機能ベースのアプローチとGANベースのアプローチの比較分析を提供する。
特徴に基づく手法とGANに基づく手法の2分法はますます曖昧になっていると我々は主張する。
論文 参考訳(メタデータ) (2025-07-08T11:45:51Z) - ABE: A Unified Framework for Robust and Faithful Attribution-Based Explainability [10.957111899739926]
InterpretDLやOmniXAIといった既存のフレームワークは、複数の属性メソッドを統合するが、スケーラビリティの制限、高い結合性、理論的制約、ユーザフレンドリな実装の欠如に悩まされている。
本稿では,Attribution-based Explainability (ABE)を提案する。これは,基本的なAttribution Methodsを形式化し,最先端のAttributionアルゴリズムを統合する統合フレームワークである。
論文 参考訳(メタデータ) (2025-05-03T12:00:59Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。