論文の概要: A dynamic vision sensor object recognition model based on trainable event-driven convolution and spiking attention mechanism
- arxiv url: http://arxiv.org/abs/2409.12691v1
- Date: Thu, 19 Sep 2024 12:01:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 13:56:58.994547
- Title: A dynamic vision sensor object recognition model based on trainable event-driven convolution and spiking attention mechanism
- Title(参考訳): トレーニング可能なイベント駆動型畳み込みとスパイク注意機構に基づく動的視覚センサオブジェクト認識モデル
- Authors: Peng Zheng, Qian Zhou,
- Abstract要約: Spiking Neural Networks(SNN)は、ダイナミックビジュアルセンサー(DVS)からのイベントストリームを処理するのに適している
DVSオブジェクトから特徴を抽出するために、SNNは通常、固定されたカーネルパラメータでイベント駆動の畳み込みを使用する。
トレーニング可能なイベント駆動型畳み込みとスパイク注意機構を利用するDVSオブジェクト認識モデルを提案する。
- 参考スコア(独自算出の注目度): 9.745798797360886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) are well-suited for processing event streams from Dynamic Visual Sensors (DVSs) due to their use of sparse spike-based coding and asynchronous event-driven computation. To extract features from DVS objects, SNNs commonly use event-driven convolution with fixed kernel parameters. These filters respond strongly to features in specific orientations while disregarding others, leading to incomplete feature extraction. To improve the current event-driven convolution feature extraction capability of SNNs, we propose a DVS object recognition model that utilizes a trainable event-driven convolution and a spiking attention mechanism. The trainable event-driven convolution is proposed in this paper to update its convolution kernel through gradient descent. This method can extract local features of the event stream more efficiently than traditional event-driven convolution. Furthermore, the spiking attention mechanism is used to extract global dependence features. The classification performances of our model are better than the baseline methods on two neuromorphic datasets including MNIST-DVS and the more complex CIFAR10-DVS. Moreover, our model showed good classification ability for short event streams. It was shown that our model can improve the performance of event-driven convolutional SNNs for DVS objects.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、スパーススパイクベースのコーディングと非同期イベント駆動計算を使用することにより、ダイナミックビジュアルセンサー(DVS)からイベントストリームを処理するのに適している。
DVSオブジェクトから機能を抽出するために、SNNは通常、固定されたカーネルパラメータによるイベント駆動の畳み込みを使用する。
これらのフィルタは、他を無視しながら特定の方向の特徴に強く反応し、不完全な特徴抽出をもたらす。
SNNの現在のイベント駆動型畳み込み特徴抽出機能を改善するため、トレーニング可能なイベント駆動型畳み込みとスパイク注意機構を利用したDVSオブジェクト認識モデルを提案する。
本論文では、勾配降下による畳み込みカーネルの更新のために、トレーニング可能なイベント駆動型畳み込みを提案する。
この方法は、従来のイベント駆動の畳み込みよりも効率的にイベントストリームの局所的特徴を抽出することができる。
さらに、スパイキングアテンション機構を用いて、グローバルな依存特徴を抽出する。
MNIST-DVSやより複雑なCIFAR10-DVSを含む2つのニューロモルフィックデータセットのベースライン法よりも,モデルの分類性能が優れている。
さらに,本モデルでは,短時間のイベントストリームに対して良好な分類能力を示した。
その結果,DVSオブジェクトに対するイベント駆動型畳み込みSNNの性能向上が得られた。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Enhancing Adaptive History Reserving by Spiking Convolutional Block
Attention Module in Recurrent Neural Networks [21.509659756334802]
スパイキングニューラルネットワーク(SNN)は、時系列における時間的パターンを処理するための1種類の効率的なモデルである。
本稿では、先進的なスパイキング・コンボリューション・アテンション・モジュール(SCBAM)コンポーネントを組み込んだ繰り返しスパイキング・ニューラルネットワーク(RSNN)モデルを開発する。
SCBAMを通して空間的・時間的チャネルの履歴情報を適応的に呼び出すことで、効率的なメモリ呼び出し履歴と冗長性排除の利点をもたらす。
論文 参考訳(メタデータ) (2024-01-08T08:05:34Z) - Automotive Object Detection via Learning Sparse Events by Spiking Neurons [20.930277906912394]
スパイキングニューラルネットワーク(SNN)は、本質的にイベントベースのデータと整合した時間的表現を提供する。
自動車のイベントベース物体検出に最適化された特化スパイキング特徴ピラミッドネットワーク(SpikeFPN)を提案する。
論文 参考訳(メタデータ) (2023-07-24T15:47:21Z) - Razor SNN: Efficient Spiking Neural Network with Temporal Embeddings [20.048679993279936]
ダイナミックビジョンセンサ(DVS)によって生成されたイベントストリームは、空間領域においてスパースであり、一様ではない。
本稿では,Razor SNNと呼ばれるイベントスペーシフィケーションスパイキングフレームワークを提案する。
我々のRazor SNNは、4つのイベントベースのベンチマークで競争性能を一貫して達成しています。
論文 参考訳(メタデータ) (2023-06-30T12:17:30Z) - Accurate and Efficient Event-based Semantic Segmentation Using Adaptive Spiking Encoder-Decoder Network [20.05283214295881]
イベントベースのセンサから動的に非同期な信号を処理するための有望なソリューションとして、スパイキングニューラルネットワーク(SNN)が登場している。
大規模イベントベースセマンティックセマンティックセグメンテーションタスクのための効率的なスパイキングエンコーダデコーダネットワーク(SpikingEDN)を開発した。
適応しきい値を利用して、ストリーミング推論におけるネットワーク精度、空間性、ロバスト性を改善する。
論文 参考訳(メタデータ) (2023-04-24T07:12:50Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。