論文の概要: Solving the Spike Feature Information Vanishing Problem in Spiking Deep
Q Network with Potential Based Normalization
- arxiv url: http://arxiv.org/abs/2206.03654v1
- Date: Wed, 8 Jun 2022 02:45:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 13:15:30.130555
- Title: Solving the Spike Feature Information Vanishing Problem in Spiking Deep
Q Network with Potential Based Normalization
- Title(参考訳): 電位ベース正規化を用いたスパイク深部Qネットワークにおけるスパイク特徴情報消滅問題の解法
- Authors: Yinqian Sun, Yi Zeng and Yang Li
- Abstract要約: スパイキング深度Qネットワークを直接訓練するための電位ベース層正規化法(pbLN)を提案する。
実験により,最先端のANN-SNN変換法や他のSDQN手法と比較して,提案したpbLNが深Qネットワーク(PL-SDQN)をスパイクすることで,Atariゲームタスクの性能が向上した。
- 参考スコア(独自算出の注目度): 7.796499799525251
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Brain inspired spiking neural networks (SNNs) have been successfully applied
to many pattern recognition domains. The SNNs based deep structure have
achieved considerable results in perceptual tasks, such as image
classification, target detection. However, the application of deep SNNs in
reinforcement learning (RL) tasks is still a problem to be explored. Although
there have been previous studies on the combination of SNNs and RL, most of
them focus on robotic control problems with shallow networks or using ANN-SNN
conversion method to implement spiking deep Q Network (SDQN). In this work, we
mathematically analyzed the problem of the disappearance of spiking signal
features in SDQN and proposed a potential based layer normalization(pbLN)
method to directly train spiking deep Q networks. Experiment shows that
compared with state-of-art ANN-SNN conversion method and other SDQN works, the
proposed pbLN spiking deep Q networks (PL-SDQN) achieved better performance on
Atari game tasks.
- Abstract(参考訳): 脳誘発スパイクニューラルネットワーク(SNN)は多くのパターン認識領域にうまく適用されている。
SNNに基づく深層構造は、画像分類、ターゲット検出などの知覚的タスクにおいてかなりの成果を上げている。
しかし,強化学習(rl)タスクにおける深層snsの適用はまだ検討すべき課題である。
SNNとRLの組み合わせに関する以前の研究はあったが、その多くは浅いネットワークによるロボット制御の問題や、スパイク深度Qネットワーク(SDQN)を実装するためにANN-SNN変換法に焦点をあてている。
本研究では,SDQNにおけるスパイキング信号の特徴の消失に関する問題を数学的に解析し,スパイキング深度Qネットワークを直接トレーニングするための電位ベース層正規化法(pbLN)を提案する。
実験により,最先端のANN-SNN変換法や他のSDQN手法と比較して,提案したpbLNが深Qネットワーク(PL-SDQN)をスパイクすることにより,Atariゲームタスクの性能が向上した。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Low Latency of object detection for spikng neural network [3.404826786562694]
スパイキングニューラルネットワークは、バイナリスパイクの性質のため、エッジAIアプリケーションに適している。
本稿では,オブジェクト検出に特化して,高精度で低遅延なSNNを生成することに焦点を当てる。
論文 参考訳(メタデータ) (2023-09-27T10:26:19Z) - Gradient Scaling on Deep Spiking Neural Networks with Spike-Dependent
Local Information [2.111711135667053]
我々は、スパイキングバックプロパゲーション(STBP)と代理勾配を併用したディープニューラルネットワーク(SNN)を訓練する。
本研究では,時間前スパイクと時間後スパイクの関係である局所スパイク情報のスケーリングによる勾配について検討した。
スパイク間の因果関係を考えると、深層SNNの訓練を強化することができる。
論文 参考訳(メタデータ) (2023-08-01T13:58:21Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Deep Learning in Spiking Phasor Neural Networks [0.6767885381740952]
スパイキングニューラルネットワーク(SNN)は、低レイテンシで低消費電力のニューロモルフィックハードウェアで使用するために、ディープラーニングコミュニティの注目を集めている。
本稿では,Spking Phasor Neural Networks(SPNN)を紹介する。
SPNNは複雑に評価されたディープニューラルネットワーク(DNN)に基づいており、スパイク時間による位相を表す。
論文 参考訳(メタデータ) (2022-04-01T15:06:15Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Spiking Neural Networks for Visual Place Recognition via Weighted
Neuronal Assignments [24.754429120321365]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率と低レイテンシを含む、魅力的な潜在的な利点を提供する。
高性能SNNにとって有望な領域の1つは、テンプレートマッチングと画像認識である。
本研究では,視覚的位置認識(VPR)タスクのための最初の高性能SNNを紹介する。
論文 参考訳(メタデータ) (2021-09-14T05:40:40Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Boosting Deep Neural Networks with Geometrical Prior Knowledge: A Survey [77.99182201815763]
ディープニューラルネットワーク(DNN)は多くの異なる問題設定において最先端の結果を達成する。
DNNはしばしばブラックボックスシステムとして扱われ、評価と検証が複雑になる。
コンピュータビジョンタスクにおける畳み込みニューラルネットワーク(CNN)の成功に触発された、有望な分野のひとつは、対称幾何学的変換に関する知識を取り入れることである。
論文 参考訳(メタデータ) (2020-06-30T14:56:05Z) - T2FSNN: Deep Spiking Neural Networks with Time-to-first-spike Coding [26.654533157221973]
本稿では,カーネルベースの動的しきい値とデンドライトを用いて,深層SNNにタイム・ツー・ファースト・スパイク・コーディングを組み込むことによって,その欠点を克服する手法を提案する。
提案手法は,バースト符号化法と比較して,推定遅延とスパイク回数を22%,1%以下に削減できる。
論文 参考訳(メタデータ) (2020-03-26T04:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。