論文の概要: Event-based vision for egomotion estimation using precise event timing
- arxiv url: http://arxiv.org/abs/2501.11554v1
- Date: Mon, 20 Jan 2025 15:41:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:20:06.877217
- Title: Event-based vision for egomotion estimation using precise event timing
- Title(参考訳): 正確なイベントタイミングを用いた行動推定のためのイベントベースビジョン
- Authors: Hugh Greatorex, Michele Mastella, Madison Cotteret, Ole Richter, Elisabetta Chicca,
- Abstract要約: エゴモーション推定は、自律ナビゲーションやロボット工学といった応用に不可欠である。
慣性センサーに依存する従来の方法は、外部条件に敏感である。
視覚ベースの手法は、シーンで変化が認識されたときにのみデータをキャプチャすることで、効率的な代替手段を提供する。
- 参考スコア(独自算出の注目度): 0.6262316762195913
- License:
- Abstract: Egomotion estimation is crucial for applications such as autonomous navigation and robotics, where accurate and real-time motion tracking is required. However, traditional methods relying on inertial sensors are highly sensitive to external conditions, and suffer from drifts leading to large inaccuracies over long distances. Vision-based methods, particularly those utilising event-based vision sensors, provide an efficient alternative by capturing data only when changes are perceived in the scene. This approach minimises power consumption while delivering high-speed, low-latency feedback. In this work, we propose a fully event-based pipeline for egomotion estimation that processes the event stream directly within the event-based domain. This method eliminates the need for frame-based intermediaries, allowing for low-latency and energy-efficient motion estimation. We construct a shallow spiking neural network using a synaptic gating mechanism to convert precise event timing into bursts of spikes. These spikes encode local optical flow velocities, and the network provides an event-based readout of egomotion. We evaluate the network's performance on a dedicated chip, demonstrating strong potential for low-latency, low-power motion estimation. Additionally, simulations of larger networks show that the system achieves state-of-the-art accuracy in egomotion estimation tasks with event-based cameras, making it a promising solution for real-time, power-constrained robotics applications.
- Abstract(参考訳): エゴモーション推定は、正確かつリアルタイムなモーショントラッキングが必要な自律ナビゲーションやロボット工学のようなアプリケーションに不可欠である。
しかし、慣性センサーに依存する従来の手法は外部の条件に非常に敏感であり、長距離で大きな不正確性を引き起こすドリフトに悩まされている。
視覚ベースの方法、特にイベントベースの視覚センサを利用するものは、シーンで変化が認識された場合にのみデータをキャプチャすることで、効率的な代替手段を提供する。
このアプローチは、高速で低レイテンシなフィードバックを提供しながら、消費電力を最小化する。
本研究では,イベントストリームを直接イベントベースドメイン内で処理するイベントストリーム推定のための,完全なイベントベースパイプラインを提案する。
この手法はフレームベースの中間体の必要性を排除し、低レイテンシでエネルギー効率の良い動き推定を可能にする。
シナプスゲーティング機構を用いて浅層スパイクニューラルネットワークを構築し,正確なイベントタイミングをスパイクのバーストに変換する。
これらのスパイクは局所的な光流速度を符号化し、ネットワークはイベントベースのエゴモーションの読み出しを提供する。
専用チップ上でのネットワーク性能を評価し,低レイテンシ,低消費電力動作推定に強い可能性を示す。
さらに,大規模ネットワークのシミュレーションにより,イベントベースカメラを用いた移動推定タスクにおける最先端の精度を実現し,リアルタイム・電力制約型ロボット工学応用に有望なソリューションであることを示す。
関連論文リスト
- Motion Segmentation for Neuromorphic Aerial Surveillance [42.04157319642197]
イベントカメラは優れた時間分解能、優れたダイナミックレンジ、最小限の電力要件を提供する。
固定間隔で冗長な情報をキャプチャする従来のフレームベースのセンサーとは異なり、イベントカメラは画素レベルの明るさ変化を非同期に記録する。
本稿では,イベントデータと光フロー情報の両方に自己監督型視覚変換器を利用する動き分割手法を提案する。
論文 参考訳(メタデータ) (2024-05-24T04:36:13Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - Low-power event-based face detection with asynchronous neuromorphic
hardware [2.0774873363739985]
本稿では、SynSense Speckニューロモルフィックチップ上に展開されたイベントベースの顔検出のためのオンチップスパイクニューラルネットワークの最初の例を示す。
トレーニングに用いるオフチップクロック駆動シミュレーションとオンチップイベント駆動推論との精度の相違について述べる。
オンチップ顔検出のmAP[0.5]は0.6で、20mWしか消費しない。
論文 参考訳(メタデータ) (2023-12-21T19:23:02Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Neuromorphic Optical Flow and Real-time Implementation with Event
Cameras [47.11134388304464]
イベントベースのビジョンとスパイクニューラルネットワークの最新の開発の上に構築しています。
我々は、最先端の自己監督型光フロー精度を向上させる新しいネットワークアーキテクチャを提案する。
約2桁の複雑さで高速な光流予測を行う。
論文 参考訳(メタデータ) (2023-04-14T14:03:35Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Real-time Object Detection for Streaming Perception [84.2559631820007]
ストリーミング知覚は,ビデオオンライン知覚の1つの指標として,レイテンシと精度を共同評価するために提案される。
ストリーミング知覚のためのシンプルで効果的なフレームワークを構築します。
提案手法はArgoverse-HDデータセット上での競合性能を実現し,強力なベースラインに比べてAPを4.9%向上させる。
論文 参考訳(メタデータ) (2022-03-23T11:33:27Z) - Event-Based high-speed low-latency fiducial marker tracking [15.052022635853799]
本稿では,リアルタイム,低レイテンシ,自由度6自由度ポーズ推定のためのエンドツーエンドパイプラインを提案する。
イベントベースのセンサを高速に利用して空間変換を直接改善する。
このアプローチでは,CPUリソースのみに依存しながら,最大156kHzのレートでポーズ推定を行うことができる。
論文 参考訳(メタデータ) (2021-10-12T08:34:31Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。