論文の概要: Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability
- arxiv url: http://arxiv.org/abs/2512.03112v1
- Date: Tue, 02 Dec 2025 08:34:43 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:13:42.769037
- Title: Beyond Additivity: Sparse Isotonic Shapley Regression toward Nonlinear Explainability
- Title(参考訳): 付加性を超えて: 非線形説明可能性に対するスパースアイソトニックシェープリグレッション
- Authors: Jialai She,
- Abstract要約: 本稿では,Sparse Isotonic Shapley Regression (SISR)について紹介する。
SISRは単調変換を学び、加法的に復元する。-閉形式仕様の必要性を回避し、Shapleyベクトル上でL0間隔制約を強制する。
SISRはペイオフスキーム間の属性を安定化し、無関係な特徴を正しくフィルタリングする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Shapley values, a gold standard for feature attribution in Explainable AI, face two primary challenges. First, the canonical Shapley framework assumes that the worth function is additive, yet real-world payoff constructions--driven by non-Gaussian distributions, heavy tails, feature dependence, or domain-specific loss scales--often violate this assumption, leading to distorted attributions. Secondly, achieving sparse explanations in high dimensions by computing dense Shapley values and then applying ad hoc thresholding is prohibitively costly and risks inconsistency. We introduce Sparse Isotonic Shapley Regression (SISR), a unified nonlinear explanation framework. SISR simultaneously learns a monotonic transformation to restore additivity--obviating the need for a closed-form specification--and enforces an L0 sparsity constraint on the Shapley vector, enhancing computational efficiency in large feature spaces. Its optimization algorithm leverages Pool-Adjacent-Violators for efficient isotonic regression and normalized hard-thresholding for support selection, yielding implementation ease and global convergence guarantees. Analysis shows that SISR recovers the true transformation in a wide range of scenarios and achieves strong support recovery even in high noise. Moreover, we are the first to demonstrate that irrelevant features and inter-feature dependencies can induce a true payoff transformation that deviates substantially from linearity. Experiments in regression, logistic regression, and tree ensembles demonstrate that SISR stabilizes attributions across payoff schemes, correctly filters irrelevant features while standard Shapley values suffer severe rank and sign distortions. By unifying nonlinear transformation estimation with sparsity pursuit, SISR advances the frontier of nonlinear explainability, providing a theoretically grounded and practical attribution framework.
- Abstract(参考訳): 説明可能なAIにおける機能属性のゴールドスタンダードであるShapley Valueは、2つの大きな課題に直面している。
まず、正準Shapleyフレームワークは、この価値関数が加法的であると仮定するが、非ガウス分布、重テール、特徴依存性、ドメイン固有の損失尺度によって駆動される実世界のペイオフ構造は、しばしばこの仮定に反し、歪んだ帰属をもたらす。第二に、密なShapley値の計算による高次元でのスパース説明の達成と、アドホックしきい値の適用は、コストが禁じられ、矛盾するリスクがある。Sparse Isotonic Shapley Regression (SISR)は、統一された非線形説明フレームワークである。SISRは同時に、単調変換を学習し、単調変換を学習し、閉形式仕様の付加性やL0の制約を強制する。
その最適化アルゴリズムは、Pool-Adjacent-Violatorsを利用して、効率的な等調回帰と、サポート選択のための正規化ハードスレッショニングを実現し、実装の容易さとグローバル収束を保証する。
解析により、SISRは様々なシナリオにおいて真の変換を回復し、高雑音下でも強力なサポート回復を実現することが示された。
さらに、関係のない特徴や機能間依存関係が、線形性から大きく逸脱する真のペイオフ変換を誘導できることを示すのはこれが初めてです。
レグレッション、ロジスティック回帰、ツリーアンサンブルの実験では、SISRはペイオフスキーム間の属性を安定化し、無関係な特徴を正しくフィルタリングし、標準的なシェープリー値は厳しいランクと符号の歪みに悩まされることを示した。
特異性追従を伴う非線形変換推定を統一することにより、SISRは非線形説明可能性のフロンティアを前進させ、理論的に基礎的かつ実用的な帰属の枠組みを提供する。
関連論文リスト
- Semi-parametric Functional Classification via Path Signatures Logistic Regression [1.210026603224224]
本稿では,ベクトル値関数データを分類するための半パラメトリックフレームワークであるPath Signatures Logistic Regressionを提案する。
この結果は, 粗い経路理論を現代的な関数型データ解析に組み込むことの実用的, 理論的利点を浮き彫りにしたものである。
論文 参考訳(メタデータ) (2025-07-09T08:06:50Z) - An Accelerated Alternating Partial Bregman Algorithm for ReLU-based Matrix Decomposition [0.0]
本稿では,非負行列上に補正されたスパース低ランク特性について検討する。
本稿では,クラスタリングと圧縮タスクに有用な構造を取り入れた新しい正規化項を提案する。
我々は、任意の$Lge 1$に対して常に持つ$L$-smoothプロパティを維持しながら、対応する閉形式解を導出する。
論文 参考訳(メタデータ) (2025-03-04T08:20:34Z) - Sample Complexity of Linear Quadratic Regulator Without Initial Stability [7.245261469258501]
ReINFORCEにインスパイアされ、未知のダイナミクスを持つ線形二次レギュレータ(LQR)問題に対して、新しいリリーディングホライゾンアルゴリズムを導入する。
従来の手法とは異なり、本アルゴリズムはサンプルの複雑さの順序を同じに保ちながら、2点勾配推定に依存することを回避している。
論文 参考訳(メタデータ) (2025-02-20T02:44:25Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Towards Understanding Generalization via Decomposing Excess Risk
Dynamics [13.4379473119565]
一般化力学を解析してアルゴリズム依存境界(安定性など)を導出する。
ニューラルネットは、ノイズの嵌合時に緩やかな収束率を示すという観測から着想を得て、余剰リスクダイナミクスを分解することを提案する。
分解の枠組みの下では、新しい境界は安定性に基づく境界と一様収束境界よりも理論的および経験的証拠とよく一致している。
論文 参考訳(メタデータ) (2021-06-11T03:42:45Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Fine-Grained Analysis of Stability and Generalization for Stochastic
Gradient Descent [55.85456985750134]
我々は,SGDの反復的リスクによって制御される新しい境界を開発する,平均モデル安定性と呼ばれる新しい安定性尺度を導入する。
これにより、最良のモデルの振舞いによって一般化境界が得られ、低雑音環境における最初の既知の高速境界が導かれる。
我々の知る限りでは、このことはSGDの微分不能な損失関数でさえも初めて知られている安定性と一般化を与える。
論文 参考訳(メタデータ) (2020-06-15T06:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。