論文の概要: Enhanced Neuromorphic Semantic Segmentation Latency through Stream Event
- arxiv url: http://arxiv.org/abs/2502.18982v1
- Date: Wed, 26 Feb 2025 09:43:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:57:35.086460
- Title: Enhanced Neuromorphic Semantic Segmentation Latency through Stream Event
- Title(参考訳): ストリームイベントによるニューロモルフィック・セマンティック・セマンティック・セグメンテーションの増強
- Authors: D. Hareb, J. Martinet, B. Miramond,
- Abstract要約: フレームベースの視覚センサーで最適なセマンティックセグメンテーションを実現することは、UAVや自動運転車のようなリアルタイムシステムにとって大きな課題となる。
イベントベースのカメラにインスパイアされたセンサーからのイベントストリームを活用し、シーンの変化に応じてイベントをトリガーします。
我々は、この事象情報を利用して、低エネルギー消費で知られているバイオインスパイアされたコンピューティングパラダイムであるスパイキングニューラルネットワーク(SNN)を用いて、セマンティックセグメンテーションタスクを解決する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Achieving optimal semantic segmentation with frame-based vision sensors poses significant challenges for real-time systems like UAVs and self-driving cars, which require rapid and precise processing. Traditional frame-based methods often struggle to balance latency, accuracy, and energy efficiency. To address these challenges, we leverage event streams from event-based cameras-bio-inspired sensors that trigger events in response to changes in the scene. Specifically, we analyze the number of events triggered between successive frames, with a high number indicating significant changes and a low number indicating minimal changes. We exploit this event information to solve the semantic segmentation task by employing a Spiking Neural Network (SNN), a bio-inspired computing paradigm known for its low energy consumption. Our experiments on the DSEC dataset show that our approach significantly reduces latency with only a limited drop in accuracy. Additionally, by using SNNs, we achieve low power consumption, making our method suitable for energy-constrained real-time applications. To the best of our knowledge, our approach is the first to effectively balance reduced latency, minimal accuracy loss, and energy efficiency using events stream to enhance semantic segmentation in dynamic and resource-limited environments.
- Abstract(参考訳): フレームベースの視覚センサーで最適なセマンティックセグメンテーションを実現することは、UAVや自動運転車のような、迅速かつ正確な処理を必要とするリアルタイムシステムにとって大きな課題となる。
従来のフレームベースの手法は、レイテンシ、精度、エネルギー効率のバランスをとるのに苦労することが多い。
これらの課題に対処するために、シーンの変化に応じてイベントをトリガーする、イベントベースのカメラベースのバイオインスパイアされたセンサーからのイベントストリームを活用します。
具体的には、連続するフレーム間でトリガされるイベントの数を分析する。
我々は、この事象情報を利用して、低エネルギー消費で知られているバイオインスパイアされたコンピューティングパラダイムであるスパイキングニューラルネットワーク(SNN)を用いて、セマンティックセグメンテーションタスクを解決する。
DSECデータセットに対する我々の実験は、我々のアプローチが精度の低下を限定して遅延を大幅に低減することを示している。
さらに,SNNを用いて低消費電力化を実現し,エネルギー制約のあるリアルタイムアプリケーションに適した手法を提案する。
我々の知る限り、私たちのアプローチは、動的およびリソース制限された環境におけるセマンティックセグメンテーションを強化するために、イベントストリームを使用して、遅延低減、最小精度の損失、エネルギー効率を効果的にバランスさせる最初の方法です。
関連論文リスト
- Event-based vision for egomotion estimation using precise event timing [0.6262316762195913]
エゴモーション推定は、自律ナビゲーションやロボット工学といった応用に不可欠である。
慣性センサーに依存する従来の方法は、外部条件に敏感である。
視覚ベースの手法は、シーンで変化が認識されたときにのみデータをキャプチャすることで、効率的な代替手段を提供する。
論文 参考訳(メタデータ) (2025-01-20T15:41:33Z) - CREST: An Efficient Conjointly-trained Spike-driven Framework for Event-based Object Detection Exploiting Spatiotemporal Dynamics [7.696109414724968]
スパイキングニューラルネットワーク(SNN)は、イベントベースのオブジェクト認識と検出を約束する。
既存のSNNフレームワークは、多くの場合、マルチスケールの時間的特徴を扱うことができず、データの冗長性が向上し、精度が低下する。
我々は、イベントベースのオブジェクト検出を利用するために、結合的にトレーニングされた新しいスパイク駆動フレームワークであるCRESTを提案する。
論文 参考訳(メタデータ) (2024-12-17T04:33:31Z) - Spiking Neural Network as Adaptive Event Stream Slicer [10.279359105384334]
イベントベースのカメラは、リッチエッジ情報、高ダイナミックレンジ、高時間分解能を提供する。
最先端のイベントベースのアルゴリズムの多くは、イベントを固定グループに分割することに依存しており、重要な時間情報の欠落をもたらす。
SpikeSlicerは、イベントストリームを適応的に分割可能な、新規に設計されたプラグアンドプレイイベント処理方式である。
論文 参考訳(メタデータ) (2024-10-03T06:41:10Z) - Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - Low-power event-based face detection with asynchronous neuromorphic
hardware [2.0774873363739985]
本稿では、SynSense Speckニューロモルフィックチップ上に展開されたイベントベースの顔検出のためのオンチップスパイクニューラルネットワークの最初の例を示す。
トレーニングに用いるオフチップクロック駆動シミュレーションとオンチップイベント駆動推論との精度の相違について述べる。
オンチップ顔検出のmAP[0.5]は0.6で、20mWしか消費しない。
論文 参考訳(メタデータ) (2023-12-21T19:23:02Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Neuromorphic Camera Denoising using Graph Neural Network-driven
Transformers [3.805262583092311]
ニューロモルフィック・ビジョン(Neuromorphic vision)は、コンピュータビジョンコミュニティのパラダイムシフトを引き起こしたバイオインスパイアされた技術である。
ニューロモルフィックカメラは、かなりの量の計測ノイズに悩まされている。
このノイズは、ニューロモルフィック事象に基づく知覚とナビゲーションアルゴリズムの性能を劣化させる。
論文 参考訳(メタデータ) (2021-12-17T18:57:36Z) - Hybrid SNN-ANN: Energy-Efficient Classification and Object Detection for
Event-Based Vision [64.71260357476602]
イベントベースの視覚センサは、画像フレームではなく、イベントストリームの局所的な画素単位の明るさ変化を符号化する。
イベントベースセンサーによる物体認識の最近の進歩は、ディープニューラルネットワークの変換によるものである。
本稿では、イベントベースのパターン認識とオブジェクト検出のためのディープニューラルネットワークのエンドツーエンドトレーニングのためのハイブリッドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-06T23:45:58Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。