論文の概要: Interaction Tensor Shap
- arxiv url: http://arxiv.org/abs/2512.05338v1
- Date: Fri, 05 Dec 2025 00:34:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.853085
- Title: Interaction Tensor Shap
- Title(参考訳): インタラクション・テンソル・シェイプ
- Authors: Hiroki Hasegawa, Yukihiko Okada,
- Abstract要約: Shapley Taylor Interaction Index (STII) は部分集合の指数スケール列挙を必要とする。
既存のフレームワークは同時にSTIIの公理的正確性を保存する。
本稿では,STII を値と重みの縮約として再構成する SHAP (IT SHAP) を導入し,重みの有限状態 TT 表現を TT ランクで仮定する。
- 参考スコア(独自算出の注目度): 1.9336815376402718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models have grown increasingly deep and high dimensional, making it difficult to understand how individual and combined features influence their predictions. While Shapley value based methods provide principled feature attributions, existing formulations cannot tractably evaluate higher order interactions: the Shapley Taylor Interaction Index (STII) requires exponential scale enumeration of subsets, and current tensor based approaches such as the Marginal SHAP Tensor (MST) are restricted to first order effects. The central problem is that no existing framework simultaneously preserves the axiomatic exactness of STII and avoids the exponential computational blow up inherent to high order discrete derivatives. Here we show that high order Shapley interactions can be represented exactly as tensor network contractions, enabling polynomial time and polylog depth computation under Tensor Train (TT) structure. We introduce Interaction Tensor SHAP (IT SHAP), which reformulates STII as the contraction of a Value Tensor and a Weight Tensor, and assume a finite state TT representation of the Weight Tensor with polynomial TT ranks. Under TT structured model and distribution tensors, we show that IT SHAP reduces the exponential complex Theta(4^n) of STII to NC2 parallel time. These results demonstrate that IT SHAP provides a unified, axiomatic, and computationally tractable formulation of main effects and higher order interactions in high dimensional models. This framework establishes a foundation for scalable interaction aware explainable AI, with implications for large black box models whose combinatorial structure has previously rendered interaction analysis infeasible.
- Abstract(参考訳): 機械学習モデルはますます深みと高次元化が進み、個々の特徴と組み合わせた特徴が予測にどのように影響するかを理解することは困難になっている。
Shapley Taylor Interaction Index (STII) はサブセットの指数スケール列挙を必要とし、Marginal SHAP Tensor (MST) のような現在のテンソルベースのアプローチは1次効果に制限されている。
中心的な問題は、既存のフレームワークが同時にSTIIの公理的正確性を保ち、高次離散微分に固有の指数計算の爆発を避けることである。
ここでは,高次シャプリー相互作用をテンソルトレイン(TT)構造下で多項式時間とポリログ深度計算が可能なテンソルネットワーク収縮として正確に表現できることを示す。
本稿では,STII を値テンソルとウェイトテンソルの縮約として再構成するInteraction Tensor SHAP (IT SHAP)を導入し,ウェイトテンソルの有限状態TT表現を多項式TTランクで仮定する。
TT 構造モデルと分布テンソルの下では,IT SHAP は STII の指数複素 Theta(4^n) を NC2 の並列時間に還元することを示す。
これらの結果は、IT SHAPが高次元モデルにおける主効果と高次相互作用の統一的、公理的、および計算的に抽出可能な定式化を提供することを示す。
このフレームワークは、説明可能なAIを意識したスケーラブルなインタラクションのための基盤を確立し、結合構造が以前は相互作用分析を不可能にしていた大きなブラックボックスモデルに意味を持つ。
関連論文リスト
- SHAP Meets Tensor Networks: Provably Tractable Explanations with Parallelism [7.067748466807765]
より広範かつ表現力のあるモデルである *Tensor Networks (TNs)* の SHAP 説明の計算問題を分析する。
TNが*Tensor Train (TT)*構造に制限されている場合、SHAP計算は*parallel*計算を用いて*poly-logarithmic*時間で実行できることを示す。
TTのパワーのおかげで、この複雑さは決定木、ツリーアンサンブル、線形モデル、線形RNNといった多くの一般的なMLモデルに一般化することができる。
論文 参考訳(メタデータ) (2025-10-24T16:02:51Z) - Loss-Complexity Landscape and Model Structure Functions [53.92822954974537]
我々はコルモゴロフ構造関数 $h_x(alpha)$ を双対化するためのフレームワークを開発する。
情報理論構造と統計力学の数学的類似性を確立する。
構造関数と自由エネルギーの間のルジャンドル・フェンシェル双対性を明確に証明する。
論文 参考訳(メタデータ) (2025-07-17T21:31:45Z) - Score-Based Model for Low-Rank Tensor Recovery [49.158601255093416]
低ランクテンソル分解(TD)は、マルチウェイデータ解析に有効なフレームワークを提供する。
従来のTD法は、CPやタッカー分解のような事前定義された構造的仮定に依存している。
本稿では,事前定義された構造的仮定や分布的仮定の必要性を排除したスコアベースモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T15:05:37Z) - Fast Shapley Value Estimation: A Unified Approach [71.92014859992263]
冗長な手法を排除し、単純で効率的なシェープリー推定器SimSHAPを提案する。
既存手法の解析において、推定器は特徴部分集合からランダムに要約された値の線形変換として統一可能であることを観察する。
実験により,SimSHAPの有効性が検証され,精度の高いShapley値の計算が大幅に高速化された。
論文 参考訳(メタデータ) (2023-11-02T06:09:24Z) - Residual Tensor Train: a Flexible and Efficient Approach for Learning
Multiple Multilinear Correlations [4.754987078078158]
本稿では, TTと残留構造を融合したResidual Train(Residual Train)を提案する。
特に,ニューラルネットワークとVolterra系列の完全連結層がResTTの特別な場合として利用できることを示す。
このような規則はTTよりもずっと緩やかであることが証明され、つまりResTTは消滅し爆発する勾配問題に容易に対処できる。
論文 参考訳(メタデータ) (2021-08-19T12:47:16Z) - Constructing Tensor Network Influence Functionals for General Quantum
Dynamics [0.0]
我々は、影響関数の時空テンソルネットワーク表現を使用し、その近似性を結合次元と時間的絡み合いの観点から検討する。
我々は、その構造に係わる影響関数と中間体は、ある力学系における低結合次元テンソルネットワークによって効率的に近似できることを示した。
浴槽を反復的に一体化するので、影響関数の相関は低下する前に最初に増大し、非自明なキャンセルによって影響関数の最終的な圧縮性が達成されることを示す。
論文 参考訳(メタデータ) (2021-01-14T05:42:25Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。