論文の概要: Sparse Convolutional Recurrent Learning for Efficient Event-based Neuromorphic Object Detection
- arxiv url: http://arxiv.org/abs/2506.13440v1
- Date: Mon, 16 Jun 2025 12:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.403183
- Title: Sparse Convolutional Recurrent Learning for Efficient Event-based Neuromorphic Object Detection
- Title(参考訳): 効率的なイベントベースニューロモルフィック物体検出のためのスパース畳み込みリカレント学習
- Authors: Shenqi Wang, Yingfu Xu, Amirreza Yousefzadeh, Sherif Eissa, Henk Corporaal, Federico Corradi, Guangzhi Tang,
- Abstract要約: ニューロモルフィックプロセッサ上でのイベントベースの効率的なオブジェクト検出のためのスパースイベントベース効率検出器(SEED)を提案する。
我々はスパース畳み込み再帰学習を導入し、これは再帰処理において92%以上の活性化間隔を達成し、スパースイベントデータに基づく推論のコストを大幅に削減する。
- 参考スコア(独自算出の注目度): 4.362139927929203
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Leveraging the high temporal resolution and dynamic range, object detection with event cameras can enhance the performance and safety of automotive and robotics applications in real-world scenarios. However, processing sparse event data requires compute-intensive convolutional recurrent units, complicating their integration into resource-constrained edge applications. Here, we propose the Sparse Event-based Efficient Detector (SEED) for efficient event-based object detection on neuromorphic processors. We introduce sparse convolutional recurrent learning, which achieves over 92% activation sparsity in recurrent processing, vastly reducing the cost for spatiotemporal reasoning on sparse event data. We validated our method on Prophesee's 1 Mpx and Gen1 event-based object detection datasets. Notably, SEED sets a new benchmark in computational efficiency for event-based object detection which requires long-term temporal learning. Compared to state-of-the-art methods, SEED significantly reduces synaptic operations while delivering higher or same-level mAP. Our hardware simulations showcase the critical role of SEED's hardware-aware design in achieving energy-efficient and low-latency neuromorphic processing.
- Abstract(参考訳): 高時間分解能とダイナミックレンジを活用することで、イベントカメラによるオブジェクト検出は、実世界のシナリオにおける自動車やロボティクスアプリケーションの性能と安全性を高めることができる。
しかし、スパースイベントデータを処理するには、計算集約的な畳み込みリカレントユニットが必要で、リソース制約のあるエッジアプリケーションへの統合が複雑になる。
本稿では,Sparse Event-based Efficient Detector (SEED)を提案する。
本稿では,スパース・コンボリューショナル・リカレント・ラーニングを導入し,スパース・イベントデータに対する時空間推論のコストを大幅に削減し,再カレント処理における92%以上の活性化間隔を実現する。
我々はPropheseeの1 MpxとGen1イベントベースのオブジェクト検出データセットについて検証した。
特にSEEDは、長期の時間的学習を必要とするイベントベースのオブジェクト検出のための計算効率の新たなベンチマークを設定している。
最先端の手法と比較して、SEEDは高いレベルのmAPや同レベルのmAPを提供しながらシナプス操作を著しく削減する。
ハードウェアシミュレーションは,SEEDがエネルギー効率と低遅延ニューロモルフィック処理を実現する上で重要な役割を担っていることを示す。
関連論文リスト
- Hybrid Spiking Vision Transformer for Object Detection with Event Cameras [19.967565219584056]
スパイキングニューラルネットワーク(SNN)は、低エネルギー消費とリッチダイナミクスを提供する、有望なアプローチとして登場した。
本研究では,イベントベース物体検出の性能向上を目的としたハイブリッドトランスフォーマー(HsVT)モデルを提案する。
実験結果から,HsVTはより少ないパラメータでイベント検出において大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2025-05-12T16:19:20Z) - SuperEIO: Self-Supervised Event Feature Learning for Event Inertial Odometry [6.552812892993662]
イベントカメラは非同期に低レイテンシのイベントストリームを出力し、高速動作における状態推定と挑戦的な照明条件を約束する。
我々は,学習に基づく事象のみの検出とIMU測定を利用して,事象慣性オドメトリーを実現する新しいフレームワークであるSuperEIOを提案する。
提案手法を複数の公開データセット上で広範囲に評価し,その精度とロバスト性を他の最先端のイベントベース手法と比較した。
論文 参考訳(メタデータ) (2025-03-29T03:58:15Z) - CREST: An Efficient Conjointly-trained Spike-driven Framework for Event-based Object Detection Exploiting Spatiotemporal Dynamics [7.696109414724968]
スパイキングニューラルネットワーク(SNN)は、イベントベースのオブジェクト認識と検出を約束する。
既存のSNNフレームワークは、多くの場合、マルチスケールの時間的特徴を扱うことができず、データの冗長性が向上し、精度が低下する。
我々は、イベントベースのオブジェクト検出を利用するために、結合的にトレーニングされた新しいスパイク駆動フレームワークであるCRESTを提案する。
論文 参考訳(メタデータ) (2024-12-17T04:33:31Z) - Fast Window-Based Event Denoising with Spatiotemporal Correlation
Enhancement [85.66867277156089]
同時にイベントのスタックを扱うウィンドウベースのイベントデノゲーションを提案する。
空間領域では、実世界の事象と雑音を識別するために、最大後部(MAP)を選択する。
我々のアルゴリズムは、イベントノイズを効果的かつ効率的に除去し、下流タスクの性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-14T15:56:42Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。