論文の概要: From "What" to "When" -- a Spiking Neural Network Predicting Rare Events
and Time to their Occurrence
- arxiv url: http://arxiv.org/abs/2311.05210v1
- Date: Thu, 9 Nov 2023 08:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-10 15:38:38.518851
- Title: From "What" to "When" -- a Spiking Neural Network Predicting Rare Events
and Time to their Occurrence
- Title(参考訳): what"から"when"へ - まれな事象とその発生時間を予測するスパイクニューラルネットワーク
- Authors: Mikhail Kiselev
- Abstract要約: 本研究は, 漏洩型統合火災(LIF)ニューロンからなるSNNを用いて, 対応する予測モデルを学習するための新しいアプローチを提案する。
提案手法は, 特殊設計した局所シナプス塑性規則と新しいカラム層SNNアーキテクチャを利用する。
本論文で述べるSNNは,高精度な機械学習技術と比較して精度が高いことを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the reinforcement learning (RL) tasks, the ability to predict receiving
reward in the near or more distant future means the ability to evaluate the
current state as more or less close to the target state (labelled by the reward
signal). In the present work, we utilize a spiking neural network (SNN) to
predict time to the next target event (reward - in case of RL). In the context
of SNNs, events are represented as spikes emitted by network neurons or input
nodes. It is assumed that target events are indicated by spikes emitted by a
special network input node. Using description of the current state encoded in
the form of spikes from the other input nodes, the network should predict
approximate time of the next target event. This research paper presents a novel
approach to learning the corresponding predictive model by an SNN consisting of
leaky integrate-and-fire (LIF) neurons. The proposed method leverages specially
designed local synaptic plasticity rules and a novel columnar-layered SNN
architecture. Similar to our previous works, this study places a strong
emphasis on the hardware-friendliness of the proposed models, ensuring their
efficient implementation on modern and future neuroprocessors. The approach
proposed was tested on a simple reward prediction task in the context of one of
the RL benchmark ATARI games, ping-pong. It was demonstrated that the SNN
described in this paper gives superior prediction accuracy in comparison with
precise machine learning techniques, such as decision tree algorithms and
convolutional neural networks.
- Abstract(参考訳): 強化学習(RL)タスクでは、近未来又は遠未来における受信報酬を予測する能力は、現在の状態を目標状態(報奨信号で遅延された)に近いものと評価する能力を意味する。
本研究では、スパイキングニューラルネットワーク(SNN)を用いて、次のターゲットイベント(RLの場合)の時間を予測する。
SNNのコンテキストでは、イベントはネットワークニューロンや入力ノードによって放出されるスパイクとして表現される。
ターゲットイベントは、特別なネットワーク入力ノードによって出力されるスパイクによって表される。
他の入力ノードからのスパイクの形で符号化された現在の状態を記述することで、ネットワークは次のターゲットイベントの近似時間を予測する必要がある。
本研究は,漏洩型統合火災(LIF)ニューロンからなるSNNを用いて,対応する予測モデルを学習するための新しいアプローチを提案する。
提案手法は, 特殊設計した局所シナプス塑性規則と新しいカラム層SNNアーキテクチャを利用する。
これまでの研究と同様に,本研究では,提案モデルのハードウェアフレンドリ性に強い重点を置いて,現代および将来のニューロプロセッサへの効率的な実装を保証する。
提案手法は,RTL ベンチマーク ATARI ゲームであるping-pong のコンテキストにおいて,単純な報奨予測タスクを用いて検証した。
本論文で述べるSNNは,決定木アルゴリズムや畳み込みニューラルネットワークなど,高精度な機械学習手法と比較して,予測精度が優れていることを示した。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Quantum Recurrent Neural Networks for Sequential Learning [11.133759363113867]
近いうちに量子優位性のあるアプリケーションを見つけるために,新しい種類の量子リカレントニューラルネットワーク(QRNN)を提案する。
我々のQRNNは、量子デバイスのコヒーレント時間に関してアルゴリズムの要求を大幅に削減できる、停滞した方法でQRBを積み重ねることによって構築されます。
数値実験により,我々のQRNNは古典的RNNと最先端QNNモデルに対する予測(分類)精度が向上し,逐次学習が可能となった。
論文 参考訳(メタデータ) (2023-02-07T04:04:39Z) - Object Detection with Spiking Neural Networks on Automotive Event Data [0.0]
我々は、イベントカメラから直接スパイキングニューラルネットワーク(SNN)を訓練し、高速で効率的な自動車組込みアプリケーションを設計することを提案する。
本稿では,2つの自動車イベントデータセットの実験を行い,スパイクニューラルネットワークのための最先端の分類結果を確立した。
論文 参考訳(メタデータ) (2022-05-09T14:39:47Z) - Random Quantum Neural Networks (RQNN) for Noisy Image Recognition [0.9205287316703888]
本稿では,RQNN (Random Quantum Neural Networks) の新たなクラスについて紹介する。
提案するRQNNは、重ね合わせ状態と振幅符号化機能を備えたハイブリッド古典量子アルゴリズムを用いる。
MNIST、FashionMNIST、KMNISTデータセットの実験により、提案されたRQNNモデルは平均分類精度が94.9%であることを示した。
論文 参考訳(メタデータ) (2022-03-03T15:15:29Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。