論文の概要: Structural Neural Additive Models: Enhanced Interpretable Machine
Learning
- arxiv url: http://arxiv.org/abs/2302.09275v1
- Date: Sat, 18 Feb 2023 09:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:33:08.629260
- Title: Structural Neural Additive Models: Enhanced Interpretable Machine
Learning
- Title(参考訳): 構造的ニューラル付加モデル:強化解釈可能な機械学習
- Authors: Mattias Luber, Anton Thielmann, Benjamin S\"afken
- Abstract要約: 近年、この分野は、視覚的に解釈可能なニューラル・アダプティブ・モデル(NAM)のような、解釈可能なニューラルネットワークに向かって進んでいる。
特徴効果の可視化を超越したインテリジェンス指向のさらなるステップを提案し, 構造的ニューラル付加モデル(SNAM)を提案する。
古典的かつ明確に解釈可能な統計手法とニューラルネットワークの予測能力を組み合わせたモデリングフレームワーク。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) have shown exceptional performances in a wide
range of tasks and have become the go-to method for problems requiring
high-level predictive power. There has been extensive research on how DNNs
arrive at their decisions, however, the inherently uninterpretable networks
remain up to this day mostly unobservable "black boxes". In recent years, the
field has seen a push towards interpretable neural networks, such as the
visually interpretable Neural Additive Models (NAMs). We propose a further step
into the direction of intelligibility beyond the mere visualization of feature
effects and propose Structural Neural Additive Models (SNAMs). A modeling
framework that combines classical and clearly interpretable statistical methods
with the predictive power of neural applications. Our experiments validate the
predictive performances of SNAMs. The proposed framework performs comparable to
state-of-the-art fully connected DNNs and we show that SNAMs can even
outperform NAMs while remaining inherently more interpretable.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、幅広いタスクにおいて例外的なパフォーマンスを示し、高いレベルの予測力を必要とする問題に対するゴーツーメソッドとなっている。
dnnが彼らの決定にどのように到達するかについては広範な研究が行われてきたが、本質的に解釈不能なネットワークは、今日までほとんど観察できない「ブラックボックス」のままである。
近年、この分野は、視覚的に解釈可能なニューラル・アダプティブ・モデル(NAM)など、解釈可能なニューラルネットワークに向かって進んでいる。
本稿では,特徴効果の可視化以上のインテリジェンス指向のさらなるステップを提案し,構造的ニューラル付加モデル(SNAM)を提案する。
古典的かつ明確に解釈可能な統計手法とニューラルネットワークの予測能力を組み合わせたモデリングフレームワーク。
SNAMの予測性能について実験を行った。
提案フレームワークは最先端の完全連結DNNに匹敵する性能を示し,SNAMは本質的に解釈可能でありながら,NAMよりも優れていることを示す。
関連論文リスト
- A Recurrent Spiking Network with Hierarchical Intrinsic Excitability Modulation for Schema Learning [20.722060005437353]
ニューラル計算の現在の研究は、単一の行動パラダイムに大きく制約されている。
階層内在性興奮性変調(HM-RSNN)を用いた繰り返しスパイクニューラルネットワークを用いた新しいモデルを提案する。
HM-RSNNは、すべてのタスクにおいてRSNNのベースラインを著しく上回り、3つの新しい認知タスクにおいてRNNを上回る。
論文 参考訳(メタデータ) (2025-01-24T14:45:03Z) - Flexible and Scalable Deep Dendritic Spiking Neural Networks with Multiple Nonlinear Branching [39.664692909673086]
本稿では,複数の樹状突起枝に非線形力学を組み込んだ樹状突起スパイクニューロン(DendSN)を提案する。
点スパイクニューロンと比較すると、デンドSNははるかに高い発現を示す。
本研究は,従来のSNNに匹敵する深度とスケールで,生物解析可能な樹状SNNを訓練する可能性を実証するものである。
論文 参考訳(メタデータ) (2024-12-09T10:15:46Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Neural Additive Models for Location Scale and Shape: A Framework for
Interpretable Neural Regression Beyond the Mean [1.0923877073891446]
ディープニューラルネットワーク(DNN)は、様々なタスクで非常に効果的であることが証明されている。
この成功にもかかわらず、DNNの内部構造はしばしば透明ではない。
この解釈可能性の欠如は、本質的に解釈可能なニューラルネットワークの研究の増加につながった。
論文 参考訳(メタデータ) (2023-01-27T17:06:13Z) - Higher-order Neural Additive Models: An Interpretable Machine Learning
Model with Feature Interactions [2.127049691404299]
深層ニューラルネットワークのようなブラックボックスモデルは優れた予測性能を示すが、その振る舞いを理解することは極めて難しい。
最近提案されたニューラル加算モデル(NAM)は、最先端の解釈可能な機械学習を実現している。
本稿では,高次ニューラル加算モデル (HONAM) と呼ばれる新しい解釈可能な機械学習手法を提案する。
論文 参考訳(メタデータ) (2022-09-30T12:12:30Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。