論文の概要: A Spike Learning System for Event-driven Object Recognition
- arxiv url: http://arxiv.org/abs/2101.08850v1
- Date: Thu, 21 Jan 2021 20:57:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 08:06:09.349126
- Title: A Spike Learning System for Event-driven Object Recognition
- Title(参考訳): イベント駆動型物体認識のためのスパイク学習システム
- Authors: Shibo Zhou, Wei Wang, Xiaohua Li, Zhanpeng Jin
- Abstract要約: LiDARやダイナミックビジョンセンサー(DVS)などのイベント駆動センサは、高解像度および高速アプリケーションで注目を集めています。
本稿では,スパイキングニューラルネットワーク(SNN)を用いたスパイキング学習システムを提案する。
- 参考スコア(独自算出の注目度): 8.875351982997554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-driven sensors such as LiDAR and dynamic vision sensor (DVS) have found
increased attention in high-resolution and high-speed applications. A lot of
work has been conducted to enhance recognition accuracy. However, the essential
topic of recognition delay or time efficiency is largely under-explored. In
this paper, we present a spiking learning system that uses the spiking neural
network (SNN) with a novel temporal coding for accurate and fast object
recognition. The proposed temporal coding scheme maps each event's arrival time
and data into SNN spike time so that asynchronously-arrived events are
processed immediately without delay. The scheme is integrated nicely with the
SNN's asynchronous processing capability to enhance time efficiency. A key
advantage over existing systems is that the event accumulation time for each
recognition task is determined automatically by the system rather than pre-set
by the user. The system can finish recognition early without waiting for all
the input events. Extensive experiments were conducted over a list of 7 LiDAR
and DVS datasets. The results demonstrated that the proposed system had
state-of-the-art recognition accuracy while achieving remarkable time
efficiency. Recognition delay was shown to reduce by 56.3% to 91.7% in various
experiment settings over the popular KITTI dataset.
- Abstract(参考訳): LiDARやダイナミックビジョンセンサー(DVS)のようなイベント駆動型センサーは、高分解能および高速な応用において注目を集めている。
認識精度を高めるために多くの研究がなされている。
しかし、認識遅延や時間効率に関する本質的な話題はほとんど未定である。
本稿では,スパイキングニューラルネットワーク(SNN)を用いたスパイキング学習システムを提案する。
提案方式では,各イベントの到着時刻とデータをSNNスパイク時間にマッピングし,非同期に送信されたイベントを遅延なく即時に処理する。
このスキームはSNNの非同期処理機能とうまく統合され、時間効率が向上する。
既存のシステムに対する大きな利点は、各認識タスクのイベント蓄積時間が、ユーザの事前設定ではなく、システムによって自動的に決定される点である。
システムは全ての入力イベントを待つことなく、早期に認識を終了することができる。
7つのLiDARとDVSデータセットのリストで大規模な実験が行われた。
その結果,提案システムは最先端の認識精度を有し,時間効率は優れていた。
一般的なKITTIデータセットの様々な実験環境では、認識遅延が56.3%減少して91.7%となった。
関連論文リスト
- TSkips: Efficiency Through Explicit Temporal Delay Connections in Spiking Neural Networks [8.13696328386179]
本稿では、時間的遅延を明示する前向きおよび後向きの接続を含むスパイキングニューラルネットワークを増強するTSkipsを提案する。
これらの接続は、長期的アーキテクチャをキャプチャし、長いシーケンスのスパイクフローを改善する。
4つのイベントベースデータセットにアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-11-22T18:58:18Z) - VALO: A Versatile Anytime Framework for LiDAR-based Object Detection Deep Neural Networks [4.953750672237398]
本研究は,LDARオブジェクト検出ディープニューラルネットワーク(DNN)における動的期限条件の適用という課題に対処する。
VALO(Versatile Anytime Algorithm for LiDAR Object Detection)は3次元LiDARオブジェクト検出DNNの任意の時間計算を可能にする新しいデータ中心のアプローチである。
本研究では,最先端の3次元LiDARオブジェクト検出ネットワーク,すなわちCenterPointとVoxelNextにVALOを実装し,その動的適応性を広範囲の時間制約に適用できることを実証する。
論文 参考訳(メタデータ) (2024-09-17T20:30:35Z) - RIDE: Real-time Intrusion Detection via Explainable Machine Learning
Implemented in a Memristor Hardware Architecture [24.824596231020585]
本稿では、パケットの任意の長さのシーケンスをよりコンパクトな結合機能埋め込みに統合するために、リカレントオートエンコーダを利用するパケットレベルのネットワーク侵入検出ソリューションを提案する。
提案手法は,パケットレベルで高い検出精度で,極めて効率的かつリアルタイムな解が得られることを示す。
論文 参考訳(メタデータ) (2023-11-27T17:30:19Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Real-Time Activity Recognition and Intention Recognition Using a
Vision-based Embedded System [4.060731229044571]
ドアを通そうとしないという人々の意図を認識するために,リアルタイムな活動認識を導入する。
このシステムは、エレベーターや自動ドアに適用すれば、省エネと効率の向上につながる。
組込みシステムは、意図認識データセットの98.78%の精度で実装された。
論文 参考訳(メタデータ) (2021-07-27T11:38:44Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Identity-Aware Attribute Recognition via Real-Time Distributed Inference
in Mobile Edge Clouds [53.07042574352251]
我々は、MEC対応カメラ監視システムにおいて、re-IDを用いた歩行者属性認識のための新しいモデルの設計を行う。
本稿では,属性認識と人物再IDを協調的に考慮し,分散モジュールの集合を持つ新しい推論フレームワークを提案する。
そこで我々は,提案した分散推論フレームワークのモジュール分布の学習に基づくアルゴリズムを考案した。
論文 参考訳(メタデータ) (2020-08-12T12:03:27Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Deep ConvLSTM with self-attention for human activity decoding using
wearables [0.0]
本稿では,複数のセンサ時系列データの特徴を捉えつつ,重要な時間点を選択するディープニューラルネットワークアーキテクチャを提案する。
提案手法の有効性を,異なるデータサンプリング戦略にまたがって示すとともに,自己認識機構が大幅に改善したことを示す。
提案手法は、複数の身体センサからの人間の活動のより優れた復号化を、長期間にわたって行うことができる。
論文 参考訳(メタデータ) (2020-05-02T04:30:31Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z) - Temporal Pulses Driven Spiking Neural Network for Fast Object
Recognition in Autonomous Driving [65.36115045035903]
スパイキングニューラルネットワーク(SNN)を用いた生時間パルスで直接物体認識問題に対処する手法を提案する。
各種データセットを用いて評価した結果,提案手法は最先端の手法に匹敵する性能を示しながら,優れた時間効率を実現している。
論文 参考訳(メタデータ) (2020-01-24T22:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。