論文の概要: Neural Additive Experts: Context-Gated Experts for Controllable Model Additivity
- arxiv url: http://arxiv.org/abs/2602.10585v1
- Date: Wed, 11 Feb 2026 07:19:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-12 21:44:01.52801
- Title: Neural Additive Experts: Context-Gated Experts for Controllable Model Additivity
- Title(参考訳): ニューラル・アダプティブ・エキスパート:制御可能なモデルのアダクティビティのためのコンテキストゲーテッド・エキスパート
- Authors: Guangzhi Xiong, Sanchit Sinha, Aidong Zhang,
- Abstract要約: 本稿では,解釈可能性と精度をシームレスにバランスさせる新しいフレームワークを提案する。
Neural Additive Experts (NAEs)は専門家フレームワークの混合を採用し、機能ごとに複数の専門的なネットワークを学習する。
我々はNAEが予測精度と透過的特徴レベルの説明の最適バランスを実現することを示す。
- 参考スコア(独自算出の注目度): 45.48194499967696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The trade-off between interpretability and accuracy remains a core challenge in machine learning. Standard Generalized Additive Models (GAMs) offer clear feature attributions but are often constrained by their strictly additive nature, which can limit predictive performance. Introducing feature interactions can boost accuracy yet may obscure individual feature contributions. To address these issues, we propose Neural Additive Experts (NAEs), a novel framework that seamlessly balances interpretability and accuracy. NAEs employ a mixture of experts framework, learning multiple specialized networks per feature, while a dynamic gating mechanism integrates information across features, thereby relaxing rigid additive constraints. Furthermore, we propose targeted regularization techniques to mitigate variance among expert predictions, facilitating a smooth transition from an exclusively additive model to one that captures intricate feature interactions while maintaining clarity in feature attributions. Our theoretical analysis and experiments on synthetic data illustrate the model's flexibility, and extensive evaluations on real-world datasets confirm that NAEs achieve an optimal balance between predictive accuracy and transparent, feature-level explanations. The code is available at https://github.com/Teddy-XiongGZ/NAE.
- Abstract(参考訳): 解釈可能性と精度のトレードオフは、マシンラーニングにおける中核的な課題である。
標準一般化加法モデル(GAM)は明確な特徴属性を提供するが、しばしばその厳密な加法性によって制約され、予測性能が制限される。
機能のインタラクションの導入は正確さを向上するが、個々の機能のコントリビューションを曖昧にする可能性がある。
これらの問題に対処するために我々は,解釈性と精度をシームレスにバランスさせる新しいフレームワークであるNeural Additive Experts (NAEs)を提案する。
NAEは専門家のフレームワークを混在させ、機能ごとに複数の専門的なネットワークを学習する一方、動的なゲーティングメカニズムは機能間で情報を統合し、厳密な付加的制約を緩和する。
さらに,限定的な加法モデルから複雑な特徴の相互作用を捉えつつ,特徴属性の明確さを維持しつつ,よりスムーズな遷移を促進することを目的として,専門家予測間のばらつきを軽減するための正規化手法を提案する。
合成データの理論的解析と実験はモデルの柔軟性を示し、実世界のデータセットに対する広範な評価により、NAEが予測精度と透過的な特徴レベルの説明の最適なバランスを達成できることを確認した。
コードはhttps://github.com/Teddy-XiongGZ/NAEで公開されている。
関連論文リスト
- Detecting and Pruning Prominent but Detrimental Neurons in Large Language Models [68.57424628540907]
大規模言語モデル(LLM)は、しばしば特定のデータセットに特化した学習メカニズムを開発する。
本稿では,データセット固有のメカニズムに関連するニューロンの同定と解析により,一般化の促進を目的とした微調整手法を提案する。
本手法では,各ニューロンの高信頼度予測への影響を定量化するため,データセット固有の性能に不均等に寄与するニューロンを同定する。
論文 参考訳(メタデータ) (2025-07-12T08:10:10Z) - Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Intrinsic User-Centric Interpretability through Global Mixture of Experts [31.738009841932374]
InterpretCCは、人間の理解の容易さと忠実さの説明を最適化する、本質的に解釈可能なニューラルネットワークのファミリーである。
本報告では,InterpretCCの説明は,他の本質的な解釈可能なアプローチよりも,行動性や有用性が高いことを示す。
論文 参考訳(メタデータ) (2024-02-05T11:55:50Z) - On the Joint Interaction of Models, Data, and Features [82.60073661644435]
本稿では,データとモデル間の相互作用を実験的に解析する新しいツールであるインタラクションテンソルを紹介する。
これらの観測に基づいて,特徴学習のための概念的枠組みを提案する。
この枠組みの下では、一つの仮説に対する期待された精度と一対の仮説に対する合意はどちらも閉形式で導出することができる。
論文 参考訳(メタデータ) (2023-06-07T21:35:26Z) - Curve Your Enthusiasm: Concurvity Regularization in Differentiable
Generalized Additive Models [5.519653885553456]
GAM(Generalized Additive Models)はその解釈可能性のために最近人気が回復した。
我々は,GAMの解釈可能性の低下がいかに深刻かを示す。
線形変換しない特徴変数の相互相関をペナルティ化した,概念的には単純だが効果的な正則化器を提案する。
論文 参考訳(メタデータ) (2023-05-19T06:55:49Z) - Interpretable Mixture of Experts [71.55701784196253]
Interpretable Mixture of Experts (IME)は本質的に解釈可能なモデリングフレームワークである。
IMEは単一の解釈可能なモデルよりも正確であることが示され、既存の最先端のDeep Neural Networks(DNN)と正確に比較できる。
IMEの説明は、ユーザスタディを通じて一般的に使われているポストホックな説明法と比較される。
論文 参考訳(メタデータ) (2022-06-05T06:40:15Z) - Interpretable Additive Recurrent Neural Networks For Multivariate
Clinical Time Series [4.125698836261585]
本稿では,モデル内の変数間の関係を加法的に強制することで,モデルの複雑性と精度のバランスをとるInterpretable-RNN(I-RNN)を提案する。
I-RNNは、時間内に不均一にサンプリングされ、非同期に取得され、データが欠落している臨床時系列の特徴を特に捉えている。
本研究は,院内死亡率予測のためのPhysoronet 2012 ChallengeデータセットのI-RNNモデルと,集中治療室における血行動態の介入を予測するリアルな臨床診断支援タスクについて評価する。
論文 参考訳(メタデータ) (2021-09-15T22:30:19Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。