論文の概要: Sparse Deep Additive Model with Interactions: Enhancing Interpretability and Predictability
- arxiv url: http://arxiv.org/abs/2509.23068v1
- Date: Sat, 27 Sep 2025 02:44:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.018824
- Title: Sparse Deep Additive Model with Interactions: Enhancing Interpretability and Predictability
- Title(参考訳): 相互作用を伴う疎深部付加モデル:解釈可能性と予測可能性の向上
- Authors: Yi-Ting Hung, Li-Hsiang Lin, Vince D. Calhoun,
- Abstract要約: Sparse Deep Model with Interactions (SDAMI) は、疎性駆動型特徴選択と、柔軟な関数近似のためのDeepworksを組み合わせたフレームワークである。
SDAMIの中心はエフェクト・フットプリント(英語版)の概念であり、これは高次相互作用が主効果に極端に近づくことを前提としている。
選択された各主効果に対して、SDAMIは専用のサブネットワークを構築し、解釈可能性を維持しながら非線形関数近似を可能にする。
- 参考スコア(独自算出の注目度): 16.072769293135305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in deep learning highlight the need for personalized models that can learn from small or moderate samples, handle high dimensional features, and remain interpretable. To address this challenge, we propose the Sparse Deep Additive Model with Interactions (SDAMI), a framework that combines sparsity driven feature selection with deep subnetworks for flexible function approximation. Unlike conventional deep learning models, which often function as black boxes, SDAMI explicitly disentangles main effects and interaction effects to enhance interpretability. At the same time, its deep additive structure achieves higher predictive accuracy than classical additive models. Central to SDAMI is the concept of an Effect Footprint, which assumes that higher order interactions project marginally onto main effects. Guided by this principle, SDAMI adopts a two stage strategy: first, identify strong main effects that implicitly carry information about important interactions. second, exploit this information through structured regularization such as group lasso to distinguish genuine main effects from interaction effects. For each selected main effect, SDAMI constructs a dedicated subnetwork, enabling nonlinear function approximation while preserving interpretability and providing a structured foundation for modeling interactions. Extensive simulations with comparisons confirm SDAMI$'$s ability to recover effect structures across diverse scenarios, while applications in reliability analysis, neuroscience, and medical diagnostics further demonstrate its versatility in addressing real-world high-dimensional modeling challenges.
- Abstract(参考訳): ディープラーニングの最近の進歩は、小さなサンプルや適度なサンプルから学び、高次元の特徴を扱い、解釈可能なままでいられるパーソナライズされたモデルの必要性を強調している。
この課題に対処するために,スパース深部付加モデル(SDAMI)を提案する。このフレームワークは,疎度駆動型特徴選択と深部部分ネットワークを組み合わせたフレキシブル関数近似である。
ブラックボックスとして機能する従来のディープラーニングモデルとは異なり、SDAMIは解釈可能性を高めるために主効果と相互作用効果を明示的に分離する。
同時に、その深い加法構造は古典的な加法モデルよりも高い予測精度を達成する。
SDAMIの中心はエフェクト・フットプリント(英語版)の概念であり、これは高次相互作用が主効果に極端に近づくことを前提としている。
SDAMIは2段階の戦略を採用しており、まず重要な相互作用に関する情報を暗黙的に伝達する強い主要な効果を特定する。
第2に、この情報をグループ・ラッソのような 構造化された正規化を通して利用し、 相互作用効果と真の主効果を区別する。
選択された各効果に対して、SDAMIは専用のサブネットワークを構築し、解釈可能性を維持しながら非線形関数近似を可能にし、相互作用をモデル化するための構造化された基盤を提供する。
様々なシナリオにまたがる効果構造を復元するSDAMI$'$sの能力と、信頼性分析、神経科学、医学診断への応用は、現実世界の高次元モデリング課題に対処する上で、その汎用性をさらに証明している。
関連論文リスト
- Foundation Model for Skeleton-Based Human Action Understanding [56.89025287217221]
本稿では,統一骨格に基づくDense Representation Learningフレームワークを提案する。
USDRLはトランスフォーマーベースのDense Spatio-Temporal (DSTE)、Multi-Grained Feature Deorrelation (MG-FD)、Multi-Perspective Consistency Training (MPCT)で構成されている。
論文 参考訳(メタデータ) (2025-08-18T02:42:16Z) - Correlation to Causation: A Causal Deep Learning Framework for Arctic Sea Ice Prediction [3.868211565468035]
本稿では,因果探索アルゴリズムとハイブリッドディープラーニングアーキテクチャを組み合わせた因果学習フレームワークを提案する。
提案手法は因果的重要な要因を特定し,直接影響のある特徴を優先し,特徴オーバーヘッドを低減し,計算効率を向上する。
実験により、因果的特徴の統合は、深層学習モデルの予測精度と複数のリードタイムでの解釈可能性を高めることが示されている。
論文 参考訳(メタデータ) (2025-03-03T22:24:14Z) - Neural Networks Decoded: Targeted and Robust Analysis of Neural Network Decisions via Causal Explanations and Reasoning [9.947555560412397]
本稿では、因果推論理論に基づく新しい手法TRACERを紹介し、DNN決定の根底にある因果ダイナミクスを推定する。
提案手法は入力特徴に系統的に介入し,特定の変化がネットワークを介してどのように伝播するかを観察し,内部の活性化と最終的な出力に影響を与える。
TRACERはさらに、モデルバイアスの可能性のある反ファクトを生成することで説明可能性を高め、誤分類に対する対照的な説明を提供する。
論文 参考訳(メタデータ) (2024-10-07T20:44:53Z) - On the Embedding Collapse when Scaling up Recommendation Models [53.66285358088788]
埋め込み崩壊現象をスケーラビリティの阻害とみなし、埋め込み行列は低次元の部分空間を占有する傾向にある。
本稿では,組込み集合固有の相互作用モジュールを組み込んで,多様性を持つ組込み集合を学習する,単純かつ効果的な組込み設計を提案する。
論文 参考訳(メタデータ) (2023-10-06T17:50:38Z) - PIGNet2: A Versatile Deep Learning-based Protein-Ligand Interaction
Prediction Model for Binding Affinity Scoring and Virtual Screening [0.0]
タンパク質-リガンド相互作用の予測(PLI)は、薬物発見において重要な役割を果たす。
結合親和性を正確に評価し、効率的な仮想スクリーニングを行う汎用モデルの開発は依然として課題である。
本稿では、物理インフォームドグラフニューラルネットワークと組み合わせて、新しいデータ拡張戦略を導入することにより、実現可能なソリューションを提案する。
論文 参考訳(メタデータ) (2023-07-03T14:46:49Z) - Differentiable modeling to unify machine learning and physical models
and advance Geosciences [38.92849886903847]
微分可能地科学モデリング(DG)の概念,適用性,意義について概説する。
微分可能(differentiable)とは、モデル変数に関する勾配を正確かつ効率的に計算すること。
予備的な証拠は、DGが機械学習よりも優れた解釈可能性と因果性を提供することを示している。
論文 参考訳(メタデータ) (2023-01-10T15:24:14Z) - CausalDialogue: Modeling Utterance-level Causality in Conversations [83.03604651485327]
クラウドソーシングを通じて、CausalDialogueという新しいデータセットをコンパイルし、拡張しました。
このデータセットは、有向非巡回グラフ(DAG)構造内に複数の因果効果対を含む。
ニューラル会話モデルの訓練における発話レベルにおける因果性の影響を高めるために,Exponential Average Treatment Effect (ExMATE) と呼ばれる因果性強化手法を提案する。
論文 参考訳(メタデータ) (2022-12-20T18:31:50Z) - Preference Enhanced Social Influence Modeling for Network-Aware Cascade
Prediction [59.221668173521884]
本稿では,ユーザの嗜好モデルを強化することで,カスケードサイズ予測を促進する新しいフレームワークを提案する。
エンド・ツー・エンドの手法により,ユーザの情報拡散プロセスがより適応的で正確になる。
論文 参考訳(メタデータ) (2022-04-18T09:25:06Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Feature Interaction based Neural Network for Click-Through Rate
Prediction [5.095988654970358]
本稿では,3次元関係テンソルを用いて特徴相互作用をモデル化可能な特徴相互作用ベースニューラルネットワーク(FINN)を提案する。
我々のディープFINNモデルは、PNNやDeepFMのような最先端のディープモデルよりも優れていることを示す。
また、我々のモデルは、機能相互作用を効果的に学習し、実世界のデータセットでより良いパフォーマンスを達成することができることを示している。
論文 参考訳(メタデータ) (2020-06-07T03:53:24Z) - GAMI-Net: An Explainable Neural Network based on Generalized Additive
Models with Structured Interactions [5.8010446129208155]
構造的相互作用を持つ一般化付加モデル(GAMI-Net)に基づく説明可能なニューラルネットワークを提案し,予測精度とモデル解釈可能性とのバランスを良好に追求する。
GAMI-Net(英語版)は、複数の添加物を持つ非絡み合ったフィードフォワードネットワークである。
合成関数と実世界のデータセットの双方に関する数値実験により,提案モデルが優れた解釈性を有することが示された。
論文 参考訳(メタデータ) (2020-03-16T11:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。