論文の概要: Temporal-wise Attention Spiking Neural Networks for Event Streams
Classification
- arxiv url: http://arxiv.org/abs/2107.11711v1
- Date: Sun, 25 Jul 2021 02:28:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:07:44.225918
- Title: Temporal-wise Attention Spiking Neural Networks for Event Streams
Classification
- Title(参考訳): イベントストリーム分類のための時間的注意スパイクニューラルネットワーク
- Authors: Man Yao, Huanhuan Gao, Guangshe Zhao, Dingheng Wang, Yihan Lin, Zhaoxu
Yang, Guoqi Li
- Abstract要約: スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳にトリガーされたイベントトリガーコンピューティングモデルである。
本研究では,イベントストリーム処理のためのフレームベース表現学習のための時間的注意SNNモデルを提案する。
TA-SNNモデルはイベントストリーム分類タスクの精度を向上させることを実証する。
- 参考スコア(独自算出の注目度): 6.623034896340885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to effectively and efficiently deal with spatio-temporal event streams,
where the events are generally sparse and non-uniform and have the microsecond
temporal resolution, is of great value and has various real-life applications.
Spiking neural network (SNN), as one of the brain-inspired event-triggered
computing models, has the potential to extract effective spatio-temporal
features from the event streams. However, when aggregating individual events
into frames with a new higher temporal resolution, existing SNN models do not
attach importance to that the serial frames have different signal-to-noise
ratios since event streams are sparse and non-uniform. This situation
interferes with the performance of existing SNNs. In this work, we propose a
temporal-wise attention SNN (TA-SNN) model to learn frame-based representation
for processing event streams. Concretely, we extend the attention concept to
temporal-wise input to judge the significance of frames for the final decision
at the training stage, and discard the irrelevant frames at the inference
stage. We demonstrate that TA-SNN models improve the accuracy of event streams
classification tasks. We also study the impact of multiple-scale temporal
resolutions for frame-based representation. Our approach is tested on three
different classification tasks: gesture recognition, image classification, and
spoken digit recognition. We report the state-of-the-art results on these
tasks, and get the essential improvement of accuracy (almost 19\%) for gesture
recognition with only 60 ms.
- Abstract(参考訳): イベントは一般にスパースで非均一であり、マイクロ秒の時間分解能を持ち、非常に価値があり、様々な現実の応用がある時空間のイベントストリームを効果的かつ効率的に処理する方法。
スパイキングニューラルネットワーク(SNN)は、脳にインスパイアされたイベントトリガーコンピューティングモデルの一つであり、イベントストリームから効果的な時空間的特徴を抽出する可能性がある。
しかし、新しい高時間分解能のフレームに個別のイベントを集約する場合、既存のSNNモデルは、イベントストリームがスパースで非均一であるため、シリアルフレームが信号と雑音の比率が異なることには重要でない。
この状況は既存のSNNの性能を阻害する。
本研究では,イベントストリーム処理のためのフレームベース表現を学習するための時間的注意SNN(TA-SNN)モデルを提案する。
具体的には,注意概念を時間的入力に拡張し,最終決定におけるフレームの重要性を判断し,無関係なフレームを推論段階で破棄する。
TA-SNNモデルはイベントストリーム分類タスクの精度を向上させることを実証する。
また,フレームベース表現における多重時間分解能の影響についても検討した。
本手法は,ジェスチャ認識,画像分類,音声指認識の3つのタスクでテストを行った。
本報告では,これらの課題について最先端の結果を報告し,60msのジェスチャ認識において,精度(約 19 %)が本質的に向上することを示す。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Representation Learning on Event Stream via an Elastic Net-incorporated
Tensor Network [1.9515859963221267]
本稿では,イベントストリーム中のすべてのイベントのグローバルな相関を同時に取得できる新しい表現法を提案する。
本手法は, 最先端手法と比較して, フィルタノイズなどの応用において有効な結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T02:51:47Z) - A Distance Correlation-Based Approach to Characterize the Effectiveness of Recurrent Neural Networks for Time Series Forecasting [1.9950682531209158]
距離相関の多元的指標を用いて,RNN成分と時系列特性をリンクする手法を提案する。
RNN活性化層が時系列のラグ構造をよく学習していることを実証的に示す。
また,アクティベーション層は移動平均およびヘテロスケダティック時系列過程を適切にモデル化できないことを示す。
論文 参考訳(メタデータ) (2023-07-28T22:32:08Z) - Razor SNN: Efficient Spiking Neural Network with Temporal Embeddings [20.048679993279936]
ダイナミックビジョンセンサ(DVS)によって生成されたイベントストリームは、空間領域においてスパースであり、一様ではない。
本稿では,Razor SNNと呼ばれるイベントスペーシフィケーションスパイキングフレームワークを提案する。
我々のRazor SNNは、4つのイベントベースのベンチマークで競争性能を一貫して達成しています。
論文 参考訳(メタデータ) (2023-06-30T12:17:30Z) - Temporal Contrastive Learning for Spiking Neural Networks [23.963069990569714]
生物学的にインスパイアされたニューラルネットワーク(SNN)は、低エネルギー消費と時間的情報処理能力のためにかなりの注目を集めている。
本稿では、時間領域情報にコントラスト的監督を組み込むことにより、低レイテンシで高性能なSNNを得る新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T10:31:46Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Ultra-low Latency Spiking Neural Networks with Spatio-Temporal
Compression and Synaptic Convolutional Block [4.081968050250324]
スパイキングニューラルネットワーク(SNN)は、神経時間情報能力、低処理機能、高い生物学的妥当性を有する。
Neuro-MNIST、CIFAR10-S、DVS128ジェスチャデータセットは、個々のイベントをフレームに集約し、イベントストリーム分類の時間分解能を高める必要がある。
本研究では,NIST電流の時間ステップに個々のイベントを集約し,トレーニングや推論の遅延を低減する処理時間圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-03-18T15:14:13Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Continuity-Discrimination Convolutional Neural Network for Visual Object
Tracking [150.51667609413312]
本稿では,視覚オブジェクト追跡のためのContinuity-Discrimination Convolutional Neural Network (CD-CNN) という新しいモデルを提案する。
この問題に対処するため、cd-cnnは時間的遅れの概念に基づいた時間的外観連続性をモデル化する。
不正確なターゲットの定位とドリフトを緩和するために,新しい概念 object-centroid を提案する。
論文 参考訳(メタデータ) (2021-04-18T06:35:03Z) - A Prospective Study on Sequence-Driven Temporal Sampling and Ego-Motion
Compensation for Action Recognition in the EPIC-Kitchens Dataset [68.8204255655161]
行動認識はコンピュータビジョンにおける最上位の研究分野の一つである。
エゴモーション記録シーケンスは重要な関連性を持つようになった。
提案手法は,このエゴモーションやカメラの動きを推定して対処することを目的としている。
論文 参考訳(メタデータ) (2020-08-26T14:44:45Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。