論文の概要: Deep Pulse-Coupled Neural Networks
- arxiv url: http://arxiv.org/abs/2401.08649v1
- Date: Sun, 24 Dec 2023 08:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 09:53:26.982760
- Title: Deep Pulse-Coupled Neural Networks
- Title(参考訳): 深部パルス結合ニューラルネットワーク
- Authors: Zexiang Yi, Jing Lian, Yunliang Qi, Zhaofei Yu, Huajin Tang, Yide Ma
and Jizhao Liu
- Abstract要約: ニューラルネットワーク(SNN)は、ニューロンを利用して脳の情報処理機構をキャプチャする。
本研究では、複雑な力学、すなわちパルス結合型ニューラルネットワーク(PCNN)を用いた、より生物学的に実証可能なニューラルモデルを活用する。
我々は、SNNでよく使われるLIFニューロンをPCNNニューロンに置き換えることで、ディープパルス結合ニューラルネットワーク(DPCNN)を構築する。
- 参考スコア(独自算出の注目度): 31.65350290424234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) capture the information processing mechanism
of the brain by taking advantage of spiking neurons, such as the Leaky
Integrate-and-Fire (LIF) model neuron, which incorporates temporal dynamics and
transmits information via discrete and asynchronous spikes. However, the
simplified biological properties of LIF ignore the neuronal coupling and
dendritic structure of real neurons, which limits the spatio-temporal dynamics
of neurons and thus reduce the expressive power of the resulting SNNs. In this
work, we leverage a more biologically plausible neural model with complex
dynamics, i.e., a pulse-coupled neural network (PCNN), to improve the
expressiveness and recognition performance of SNNs for vision tasks. The PCNN
is a type of cortical model capable of emulating the complex neuronal
activities in the primary visual cortex. We construct deep pulse-coupled neural
networks (DPCNNs) by replacing commonly used LIF neurons in SNNs with PCNN
neurons. The intra-coupling in existing PCNN models limits the coupling between
neurons only within channels. To address this limitation, we propose
inter-channel coupling, which allows neurons in different feature maps to
interact with each other. Experimental results show that inter-channel coupling
can efficiently boost performance with fewer neurons, synapses, and less
training time compared to widening the networks. For instance, compared to the
LIF-based SNN with wide VGG9, DPCNN with VGG9 uses only 50%, 53%, and 73% of
neurons, synapses, and training time, respectively. Furthermore, we propose
receptive field and time dependent batch normalization (RFTD-BN) to speed up
the convergence and performance of DPCNNs.
- Abstract(参考訳): スパイクニューラルネットワーク(snn)は、時間的ダイナミクスを取り入れ、離散的および非同期的なスパイクを介して情報を伝達するリーク型統合・アンド・ファイア(lif)モデルニューロンのようなスパイクニューロンを利用して、脳の情報処理メカニズムを捉える。
しかし、lifの簡易な生物学的性質は、実際のニューロンの神経細胞結合と樹状構造を無視し、神経細胞の時空間ダイナミクスを制限し、結果として生じるsnsの表現力を低減する。
本研究では、複雑な力学、すなわちパルス結合型ニューラルネットワーク(PCNN)を用いて、視覚タスクにおけるSNNの表現性と認識性能を向上させる。
PCNNは一次視覚野の複雑な神経活動をエミュレートできる皮質モデルの一種である。
我々は、SNNでよく使われるLIFニューロンをPCNNニューロンに置き換えることで、ディープパルス結合ニューラルネットワーク(DPCNN)を構築する。
既存のPCNNモデルにおけるカップリングは、チャネル内でのみニューロン間の結合を制限する。
この制限に対処するために、異なる特徴マップのニューロン同士の相互作用を可能にするチャネル間結合を提案する。
実験の結果,チャネル間カップリングは,ネットワーク幅の拡大に比べて,ニューロン数,シナプス数,トレーニング時間が少なく,効率良く性能を向上できることがわかった。
例えば、幅広いVGG9を持つLIFベースのSNNと比較して、VGG9を持つDPCNNは、それぞれ神経細胞の50%、53%、シナプス、73%、トレーニング時間しか使用していない。
さらに、DPCNNの収束と性能を高速化するために、受容場と時間依存バッチ正規化(RFTD-BN)を提案する。
関連論文リスト
- Random-coupled Neural Network [17.53731608985241]
パルス結合ニューラルネットワーク(PCNN)は、コンピュータビジョンとニューラルネットワークの分野における人間の脳の特徴を模倣するためのよく応用されたモデルである。
本研究では,ランダム結合ニューラルネットワーク(RCNN)を提案する。
ランダム不活性化プロセスを通じて、PCNNのニューロモルフィックコンピューティングの困難を克服する。
論文 参考訳(メタデータ) (2024-03-26T09:13:06Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Co-learning synaptic delays, weights and adaptation in spiking neural
networks [0.0]
スパイキングニューラルネットワーク(SNN)は、固有の時間処理とスパイクベースの計算のため、人工知能ニューラルネットワーク(ANN)と区別する。
スパイクニューロンを用いたデータ処理は、他の2つの生物学的にインスピレーションを受けたニューロンの特徴と接続重みを協調学習することで向上できることを示す。
論文 参考訳(メタデータ) (2023-09-12T09:13:26Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Complex Dynamic Neurons Improved Spiking Transformer Network for
Efficient Automatic Speech Recognition [8.998797644039064]
リークインテグレーテッド・アンド・ファイア(LIF)ニューロンを用いたスパイクニューラルネットワーク(SNN)は、音声認識(ASR)タスクで一般的に用いられている。
ここでは、スパイキングトランスから生成された逐次パターンを後処理する4種類の神経力学を紹介する。
その結果,DyTr-SNNは音素誤り率の低下,計算コストの低下,ロバスト性の向上など,非トイ自動音声認識タスクをうまく処理できることがわかった。
論文 参考訳(メタデータ) (2023-02-02T16:20:27Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Event-based Video Reconstruction via Potential-assisted Spiking Neural
Network [48.88510552931186]
バイオインスパイアされたニューラルネットワークは、イベント駆動ハードウェア上での計算効率の向上につながる可能性がある。
完全スパイキングニューラルネットワーク(EVSNN)に基づくイベントベースビデオ再構成フレームワークを提案する。
スパイクニューロンは、そのような時間依存タスクを完了させるために有用な時間情報(メモリ)を格納する可能性がある。
論文 参考訳(メタデータ) (2022-01-25T02:05:20Z) - Accurate and efficient time-domain classification with adaptive spiking
recurrent neural networks [1.8515971640245998]
スパイクニューラルネットワーク(SNN)は、より生物学的に実行可能で、より強力なニューラルネットワークモデルとして研究されている。
本稿では、新規なサロゲート勾配と、チューナブルおよび適応性スピッキングニューロンの繰り返しネットワークがSNNの最先端を生み出す様子を示す。
論文 参考訳(メタデータ) (2021-03-12T10:27:29Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。