論文の概要: Razor SNN: Efficient Spiking Neural Network with Temporal Embeddings
- arxiv url: http://arxiv.org/abs/2306.17597v1
- Date: Fri, 30 Jun 2023 12:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-03 12:35:02.552530
- Title: Razor SNN: Efficient Spiking Neural Network with Temporal Embeddings
- Title(参考訳): Razor SNN: テンポラル埋め込みを用いたスパイキングニューラルネットワーク
- Authors: Yuan Zhang, Jian Cao, Ling Zhang, Jue Chen, Wenyu Sun, Yuan Wang
- Abstract要約: ダイナミックビジョンセンサ(DVS)によって生成されたイベントストリームは、空間領域においてスパースであり、一様ではない。
本稿では,Razor SNNと呼ばれるイベントスペーシフィケーションスパイキングフレームワークを提案する。
我々のRazor SNNは、4つのイベントベースのベンチマークで競争性能を一貫して達成しています。
- 参考スコア(独自算出の注目度): 20.048679993279936
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The event streams generated by dynamic vision sensors (DVS) are sparse and
non-uniform in the spatial domain, while still dense and redundant in the
temporal domain. Although spiking neural network (SNN), the event-driven
neuromorphic model, has the potential to extract spatio-temporal features from
the event streams, it is not effective and efficient. Based on the above, we
propose an events sparsification spiking framework dubbed as Razor SNN, pruning
pointless event frames progressively. Concretely, we extend the dynamic
mechanism based on the global temporal embeddings, reconstruct the features,
and emphasize the events effect adaptively at the training stage. During the
inference stage, eliminate fruitless frames hierarchically according to a
binary mask generated by the trained temporal embeddings. Comprehensive
experiments demonstrate that our Razor SNN achieves competitive performance
consistently on four events-based benchmarks: DVS 128 Gesture, N-Caltech 101,
CIFAR10-DVS and SHD.
- Abstract(参考訳): dynamic vision sensor (dvs) によって生成されるイベントストリームは、空間領域では疎く、非一様であるが、時間領域では密度が高く冗長である。
事象駆動型ニューロモルフィックモデルであるスパイクニューラルネットワーク(SNN)は、イベントストリームから時空間的特徴を抽出する可能性があるが、効率的で効率的なものではない。
以上のことから,razor snn と呼ばれるイベントスパースフィケーション・スパイキング・フレームワークを提案し,ポイントレス・イベントフレームを段階的にプルーニングする。
具体的には、グローバルな時間的埋め込みに基づいて動的メカニズムを拡張し、特徴を再構築し、トレーニング段階でイベント効果を適応的に強調する。
推論段階では、トレーニングされた時間埋め込みによって生成された2値マスクに従って、無実フレームを階層的に除去する。
総合的な実験により、我々のRazor SNNは、DVS 128 Gesture、N-Caltech 101、CIFAR10-DVS、SHDの4つのイベントベースのベンチマークで一貫して競争性能を達成している。
関連論文リスト
- A dynamic vision sensor object recognition model based on trainable event-driven convolution and spiking attention mechanism [9.745798797360886]
Spiking Neural Networks(SNN)は、ダイナミックビジュアルセンサー(DVS)からのイベントストリームを処理するのに適している
DVSオブジェクトから特徴を抽出するために、SNNは通常、固定されたカーネルパラメータでイベント駆動の畳み込みを使用する。
トレーニング可能なイベント駆動型畳み込みとスパイク注意機構を利用するDVSオブジェクト認識モデルを提案する。
論文 参考訳(メタデータ) (2024-09-19T12:01:05Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Temporal Contrastive Learning for Spiking Neural Networks [23.963069990569714]
生物学的にインスパイアされたニューラルネットワーク(SNN)は、低エネルギー消費と時間的情報処理能力のためにかなりの注目を集めている。
本稿では、時間領域情報にコントラスト的監督を組み込むことにより、低レイテンシで高性能なSNNを得る新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T10:31:46Z) - STSC-SNN: Spatio-Temporal Synaptic Connection with Temporal Convolution
and Attention for Spiking Neural Networks [7.422913384086416]
ニューロモルフィックコンピューティングのアルゴリズムモデルの一つであるスパイキングニューラルネットワーク(SNN)は、時間的処理能力のために多くの研究注目を集めている。
SNNの既存のシナプス構造は、ほぼ完全な接続や空間的2次元畳み込みであり、どちらも時間的依存関係を適切に抽出できない。
生体シナプスからインスピレーションを得てシナプス接続SNNモデルを提案し,シナプス接続の時間的受容場を強化する。
時間的依存を伴うシナプスモデルの提供は、分類タスクにおけるSNNの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:13:22Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Ultra-low Latency Spiking Neural Networks with Spatio-Temporal
Compression and Synaptic Convolutional Block [4.081968050250324]
スパイキングニューラルネットワーク(SNN)は、神経時間情報能力、低処理機能、高い生物学的妥当性を有する。
Neuro-MNIST、CIFAR10-S、DVS128ジェスチャデータセットは、個々のイベントをフレームに集約し、イベントストリーム分類の時間分解能を高める必要がある。
本研究では,NIST電流の時間ステップに個々のイベントを集約し,トレーニングや推論の遅延を低減する処理時間圧縮手法を提案する。
論文 参考訳(メタデータ) (2022-03-18T15:14:13Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Temporal-wise Attention Spiking Neural Networks for Event Streams
Classification [6.623034896340885]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、脳にトリガーされたイベントトリガーコンピューティングモデルである。
本研究では,イベントストリーム処理のためのフレームベース表現学習のための時間的注意SNNモデルを提案する。
TA-SNNモデルはイベントストリーム分類タスクの精度を向上させることを実証する。
論文 参考訳(メタデータ) (2021-07-25T02:28:44Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Event-Based Angular Velocity Regression with Spiking Networks [51.145071093099396]
スパイキングニューラルネットワーク(SNN)は、数値ではなく時間スパイクとして伝達される情報を処理する。
本稿では,イベントカメラから与えられた事象の時間回帰問題を初めて提案する。
角速度回帰を行うためにSNNをうまく訓練できることが示される。
論文 参考訳(メタデータ) (2020-03-05T17:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。