論文の概要: Higher-Order Feature Attribution: Bridging Statistics, Explainable AI, and Topological Signal Processing
- arxiv url: http://arxiv.org/abs/2510.06165v1
- Date: Tue, 07 Oct 2025 17:29:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.386028
- Title: Higher-Order Feature Attribution: Bridging Statistics, Explainable AI, and Topological Signal Processing
- Title(参考訳): 高次特徴属性:ブリッジング統計、説明可能なAI、トポロジカル信号処理
- Authors: Kurt Butler, Guanchao Feng, Petar Djuric,
- Abstract要約: 我々は,統合勾配(IG)の基礎の上に展開する高次特徴属性の理論を提案する。
この研究は、説明可能なAIに関する文献の既存のフレームワークを拡張している。
- 参考スコア(独自算出の注目度): 5.046831208137847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature attributions are post-training analysis methods that assess how various input features of a machine learning model contribute to an output prediction. Their interpretation is straightforward when features act independently, but becomes less direct when the predictive model involves interactions such as multiplicative relationships or joint feature contributions. In this work, we propose a general theory of higher-order feature attribution, which we develop on the foundation of Integrated Gradients (IG). This work extends existing frameworks in the literature on explainable AI. When using IG as the method of feature attribution, we discover natural connections to statistics and topological signal processing. We provide several theoretical results that establish the theory, and we validate our theory on a few examples.
- Abstract(参考訳): 特徴属性は、機械学習モデルの様々な入力特徴が出力予測にどのように貢献するかを評価する後学習分析手法である。
彼らの解釈は、特徴が独立して振る舞うと単純になるが、予測モデルが乗法的関係や連関的特徴の寄与のような相互作用を伴う場合、直接的でない。
本研究では,高次特徴属性の一般理論を提案し,統合勾配(IG)の基礎の上に展開する。
この研究は、説明可能なAIに関する文献の既存のフレームワークを拡張している。
特徴属性の方法としてIGを用いると,統計処理やトポロジカル信号処理に自然に結びついていることが分かる。
理論を確立するための理論的結果をいくつか提供し、いくつかの例で理論を検証した。
関連論文リスト
- Information-theoretic Quantification of High-order Feature Effects in Classification Problems [0.19791587637442676]
特徴重要度(Hi-Fi)法における高次相互作用の情報理論拡張について述べる。
私たちのフレームワークは、機能のコントリビューションをユニークでシナジスティックで冗長なコンポーネントに分解します。
その結果,提案した推定器は理論的および予測された結果を正確に復元することがわかった。
論文 参考訳(メタデータ) (2025-07-06T11:50:30Z) - Internal Causal Mechanisms Robustly Predict Language Model Out-of-Distribution Behaviors [61.92704516732144]
正当性予測の最も堅牢な特徴は、モデルの振舞いに特徴的な因果的役割を果たすものであることを示す。
モデル出力の正しさを予測するために因果メカニズムを利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2025-05-17T00:31:39Z) - Explainable Learning with Gaussian Processes [23.796560256071473]
我々は、モデル不確実性の下で属性を定義するために原則化されたアプローチをとっており、既存の文献を拡張している。
GPRは非常に柔軟で非パラメトリックなアプローチであるが、特徴属性に対する解釈可能でクローズドな表現を導出できることを示す。
また、適用すれば、GPR属性の正確な式は、現在使われている近似よりも正確で計算コストが低いことも示している。
論文 参考訳(メタデータ) (2024-03-11T18:03:02Z) - SLEM: Machine Learning for Path Modeling and Causal Inference with Super
Learner Equation Modeling [3.988614978933934]
因果推論は科学の重要な目標であり、研究者は観測データを使って意味のある結論に達することができる。
経路モデル、構造方程式モデル(SEM)および指向非巡回グラフ(DAG)は、現象の根底にある因果構造に関する仮定を明確に特定する手段を提供する。
本稿では,機械学習のスーパーラーナーアンサンブルを統合したパスモデリング手法であるSuper Learner Equation Modelingを提案する。
論文 参考訳(メタデータ) (2023-08-08T16:04:42Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Generalization Properties of Optimal Transport GANs with Latent
Distribution Learning [52.25145141639159]
本研究では,潜伏分布とプッシュフォワードマップの複雑さの相互作用が性能に与える影響について検討する。
我々の分析に感銘を受けて、我々はGANパラダイム内での潜伏分布とプッシュフォワードマップの学習を提唱した。
論文 参考訳(メタデータ) (2020-07-29T07:31:33Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。