論文の概要: Distribution-Based Feature Attribution for Explaining the Predictions of Any Classifier
- arxiv url: http://arxiv.org/abs/2511.09332v1
- Date: Thu, 13 Nov 2025 01:47:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.525036
- Title: Distribution-Based Feature Attribution for Explaining the Predictions of Any Classifier
- Title(参考訳): 任意の分類器の予測を説明するための分布に基づく特徴属性
- Authors: Xinpeng Li, Kai Ming Ting,
- Abstract要約: 本稿では,特徴帰属問題に関する公式な定義を紹介し,基礎となる確率分布によって説明が支えられることを規定する。
本稿では,特徴属性の新たなモデル非依存手法である分散特徴属性eXplanations (DFAX)を提案する。
DFAXは最先端のベースラインよりも効率的で効率的であることを示す。
- 参考スコア(独自算出の注目度): 6.452573834050412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of complex, black-box AI models has intensified the need for techniques that can explain their decisions. Feature attribution methods have become a popular solution for providing post-hoc explanations, yet the field has historically lacked a formal problem definition. This paper addresses this gap by introducing a formal definition for the problem of feature attribution, which stipulates that explanations be supported by an underlying probability distribution represented by the given dataset. Our analysis reveals that many existing model-agnostic methods fail to meet this criterion, while even those that do often possess other limitations. To overcome these challenges, we propose Distributional Feature Attribution eXplanations (DFAX), a novel, model-agnostic method for feature attribution. DFAX is the first feature attribution method to explain classifier predictions directly based on the data distribution. We show through extensive experiments that DFAX is more effective and efficient than state-of-the-art baselines.
- Abstract(参考訳): 複雑なブラックボックスAIモデルの普及により、意思決定を説明する技術の必要性が高まっている。
特徴帰属法はポストホックな説明を提供するための一般的な解法となっているが、この分野は歴史的に正式な問題定義を欠いていた。
本稿では,特徴帰属問題に対する公式な定義を導入することで,このギャップに対処する。
我々の分析によると、多くの既存のモデルに依存しない手法はこの基準を満たすことができず、また、しばしば他の制限を持つものでさえもその基準を満たすことができない。
これらの課題を克服するために,特徴属性の新たなモデル非依存手法である分散特徴属性eXplanations (DFAX)を提案する。
DFAXはデータ分布に基づいて分類器の予測を直接説明するための最初の特徴属性法である。
DFAXは最先端のベースラインよりも効率的で効率的であることを示す。
関連論文リスト
- Partial Transportability for Domain Generalization [56.37032680901525]
本稿では, 部分的同定と輸送可能性の理論に基づいて, 対象分布の関数値の有界化に関する新たな結果を紹介する。
我々の貢献は、輸送可能性問題に対する最初の一般的な評価手法を提供することである。
本稿では,スケーラブルな推論を実現するための勾配に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T22:06:37Z) - Out-of-Distribution Detection on Graphs: A Survey [58.47395497985277]
グラフアウト・オブ・ディストリビューション(GOOD)検出は、トレーニング中に見られる分布から逸脱するグラフデータを特定することに焦点を当てる。
既存の手法を,拡張ベース,再構築ベース,情報伝達ベース,分類ベースという4つのタイプに分類する。
本稿では,グラフデータによるユニークな課題を浮き彫りにして,実践的応用と理論的基礎について論じる。
論文 参考訳(メタデータ) (2025-02-12T04:07:12Z) - Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
これらの課題に対処するための影響関数フレームワークを開発する。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - It's All in the Mix: Wasserstein Classification and Regression with Mixed Features [2.2685251390114565]
我々は、離散的特徴の存在を忠実に説明できる分布的に堅牢な予測モデルを開発し、分析する。
我々のモデルは、離散的特徴の存在に非依存な既存手法を著しく上回り得ることを実証する。
論文 参考訳(メタデータ) (2023-12-19T15:15:52Z) - Debiasing Multimodal Models via Causal Information Minimization [65.23982806840182]
我々は、マルチモーダルデータのための因果グラフにおいて、共同創設者から生じるバイアスを研究する。
ロバストな予測機能は、モデルがアウト・オブ・ディストリビューションデータに一般化するのに役立つ多様な情報を含んでいる。
これらの特徴を共同設立者表現として使用し、因果理論によって動機づけられた手法を用いてモデルからバイアスを取り除く。
論文 参考訳(メタデータ) (2023-11-28T16:46:14Z) - On Formal Feature Attribution and Its Approximation [37.3078859524959]
本稿では,形式的説明列挙に基づく特徴属性に対する形式的XAIの応用法を提案する。
この問題の実際的な複雑さを考慮し, 正確なFFAを近似する効率的な手法を提案する。
論文 参考訳(メタデータ) (2023-07-07T04:20:36Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Interpretable Data-Based Explanations for Fairness Debugging [7.266116143672294]
Gopherは、バイアスや予期せぬモデルの振る舞いに関するコンパクトで解釈可能な、因果的な説明を生成するシステムである。
我々は,学習データに介入する程度を,サブセットの削除や更新によって定量化する因果責任の概念を導入し,バイアスを解消する。
この概念に基づいて、モデルバイアスを説明するトップkパターンを生成するための効率的なアプローチを開発する。
論文 参考訳(メタデータ) (2021-12-17T20:10:00Z) - Towards Unifying Feature Attribution and Counterfactual Explanations:
Different Means to the Same End [17.226134854746267]
本稿では,一組の反実例から特徴帰属説明を生成する手法を提案する。
本報告では, 帰属に基づく説明の妥当性を, その必要性と充足性の観点から評価するために, 対実例をいかに活用するかを示す。
論文 参考訳(メタデータ) (2020-11-10T05:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。