論文の概要: Feature Attribution Explanations for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2311.02110v1
- Date: Thu, 2 Nov 2023 21:30:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 19:21:00.468482
- Title: Feature Attribution Explanations for Spiking Neural Networks
- Title(参考訳): スパイクニューラルネットワークのための特徴帰属説明
- Authors: Elisa Nguyen and Meike Nauta and Gwenn Englebienne and Christin
Seifert
- Abstract要約: 第三世代のニューラルネットワークであるスパイキングニューラルネットワーク(SNN)は、ハードウェア上で効率的に実装できる。
ニューロモルフィックチップの実装は、機械学習ベースの自律制御やインテリジェントなバイオメディカルデバイスなど、幅広い応用を開放する。
SNNの局所的説明法であるtextitTemporal Spike Attribution (TSA) を提案する。
- 参考スコア(独自算出の注目度): 3.5824464725360077
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Third-generation artificial neural networks, Spiking Neural Networks (SNNs),
can be efficiently implemented on hardware. Their implementation on
neuromorphic chips opens a broad range of applications, such as machine
learning-based autonomous control and intelligent biomedical devices. In
critical applications, however, insight into the reasoning of SNNs is
important, thus SNNs need to be equipped with the ability to explain how
decisions are reached. We present \textit{Temporal Spike Attribution} (TSA), a
local explanation method for SNNs. To compute the explanation, we aggregate all
information available in model-internal variables: spike times and model
weights. We evaluate TSA on artificial and real-world time series data and
measure explanation quality w.r.t. multiple quantitative criteria. We find that
TSA correctly identifies a small subset of input features relevant to the
decision (i.e., is output-complete and compact) and generates similar
explanations for similar inputs (i.e., is continuous). Further, our experiments
show that incorporating the notion of \emph{absent} spikes improves explanation
quality. Our work can serve as a starting point for explainable SNNs, with
future implementations on hardware yielding not only predictions but also
explanations in a broad range of application scenarios. Source code is
available at https://github.com/ElisaNguyen/tsa-explanations.
- Abstract(参考訳): 第三世代のニューラルネットワークであるスパイキングニューラルネットワーク(SNN)は、ハードウェア上で効率的に実装できる。
彼らのニューロモルフィックチップの実装は、機械学習ベースの自律制御やインテリジェントなバイオメディカルデバイスなど、幅広い応用を開放する。
しかし、重要なアプリケーションでは、SNNの推論に関する洞察が重要であるため、SNNはどのように意思決定が達成されたかを説明する能力を備える必要がある。
SNN の局所的説明法である textit{Temporal Spike Attribution} (TSA) を提案する。
説明を計算するために、スパイク時間とモデルウェイトというモデル内部変数で利用可能な全ての情報を集約する。
人工および実世界の時系列データにおけるtsaを評価し,複数の定量的基準による説明品質を測定した。
TSAは、決定に関連する入力機能の小さなサブセット(すなわち出力完全かつコンパクト)を正しく識別し、類似の入力(すなわち連続)に対して同様の説明を生成する。
さらに,本実験では,emph{absent} スパイクの概念を組み込むことで説明品質が向上することを示す。
我々の研究は説明可能なSNNの出発点として機能し、将来のハードウェア実装は予測だけでなく、幅広いアプリケーションシナリオにおける説明も得る。
ソースコードはhttps://github.com/ElisaNguyen/tsa-explanationsで入手できる。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - A Spiking Neural Network Structure Implementing Reinforcement Learning [0.0]
本稿では,SNNの構造について述べる。
本論文で考察したSNN構造は、LIFAT(Leky Integration-and-fire neuron with adapt threshold)モデルの一般化によって記述されたスパイクニューロンを含む。
私の概念は、RLタスク特性に関する非常に一般的な仮定に基づいており、適用性に目に見える制限はありません。
論文 参考訳(メタデータ) (2022-04-09T09:08:10Z) - NeuroView-RNN: It's About Time [25.668977252138905]
RNNにおける重要な解釈可能性の問題は、各時間毎の隠れた状態が意思決定プロセスにどのように貢献するかが明確でないことである。
本稿では,新しいRNNアーキテクチャのファミリとしてNeuroView-RNNを提案する。
我々は,さまざまな時系列データセットを用いて評価することで,NeuroView-RNNの利点を実証する。
論文 参考訳(メタデータ) (2022-02-23T22:29:11Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - Deep Neural Networks to Recover Unknown Physical Parameters from
Oscillating Time Series [3.7277730514654555]
深層ニューラルネットワークを用いて振動時系列の成分を解き放つ。
先行知識が不完全である場合,我々のアーキテクチャは物理学における時系列処理に有用であることを示す。
論文 参考訳(メタデータ) (2021-01-11T12:39:50Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Architecture Disentanglement for Deep Neural Networks [174.16176919145377]
ディープニューラルネットワーク(DNN)の内部動作を説明するために,ニューラルアーキテクチャ・ディコンタングルメント(NAD)を導入する。
NADは、訓練済みのDNNを独立したタスクに従ってサブアーキテクチャに切り離すことを学び、推論プロセスを記述する情報フローを形成する。
その結果、誤分類された画像は、タスクサブアーキテクチャーに正しいサブアーキテクチャーに割り当てられる確率が高いことが示された。
論文 参考訳(メタデータ) (2020-03-30T08:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。