論文の概要: Event-Based Visual Teach-and-Repeat via Fast Fourier-Domain Cross-Correlation
- arxiv url: http://arxiv.org/abs/2509.17287v1
- Date: Sun, 21 Sep 2025 23:53:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.200856
- Title: Event-Based Visual Teach-and-Repeat via Fast Fourier-Domain Cross-Correlation
- Title(参考訳): Fast Fourier-Domain Cross-Correlationによるイベントベースビジュアルティーチ・アンド・リピート
- Authors: Gokul B. Nair, Alejandro Fontan, Michael Milford, Tobias Fischer,
- Abstract要約: 本稿では,最初のイベントカメラを用いた視覚指導・再生システムを提案する。
本研究では,イベントストリームマッチング問題を計算効率の良い空間乗算に変換する周波数領域相互相関フレームワークを開発した。
Prophesee EVK4 HDイベントカメラをAgileX Scout Miniロボットに搭載した実験では、自律走行が成功している。
- 参考スコア(独自算出の注目度): 52.46888249268445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual teach-and-repeat navigation enables robots to autonomously traverse previously demonstrated paths by comparing current sensory input with recorded trajectories. However, conventional frame-based cameras fundamentally limit system responsiveness: their fixed frame rates (typically 30-60 Hz) create inherent latency between environmental changes and control responses. Here we present the first event-camera-based visual teach-and-repeat system. To achieve this, we develop a frequency-domain cross-correlation framework that transforms the event stream matching problem into computationally efficient Fourier space multiplications, capable of exceeding 300Hz processing rates, an order of magnitude faster than frame-based approaches. By exploiting the binary nature of event frames and applying image compression techniques, we further enhance the computational speed of the cross-correlation process without sacrificing localization accuracy. Extensive experiments using a Prophesee EVK4 HD event camera mounted on an AgileX Scout Mini robot demonstrate successful autonomous navigation across 4000+ meters of indoor and outdoor trajectories. Our system achieves ATEs below 24 cm while maintaining consistent high-frequency control updates. Our evaluations show that our approach achieves substantially higher update rates compared to conventional frame-based systems, underscoring the practical viability of event-based perception for real-time robotic navigation.
- Abstract(参考訳): 視覚的な教示と繰り返しのナビゲーションにより、ロボットは、現在の感覚入力と記録された軌跡を比較することで、事前に実証された経路を自律的に走行することができる。
固定フレームレート(典型的には30-60Hz)は、環境変化と制御応答の間に固有のレイテンシを生み出す。
ここでは,イベントカメラを用いた視覚指導・更新システムについて紹介する。
そこで我々は,イベントストリームマッチング問題を計算効率のよいフーリエ空間乗算に変換する周波数領域相互相関フレームワークを開発し,300Hz以上の処理速度,フレームベースアプローチよりも桁違いに高速な処理速度を実現する。
イベントフレームのバイナリ特性を活用し、画像圧縮技術を適用することにより、ローカライズ精度を犠牲にすることなく、クロスコリレーションプロセスの計算速度をさらに向上する。
AgileX Scout Miniロボットに搭載されたProphesee EVK4 HDイベントカメラを用いた大規模な実験では、4000m以上の屋内および屋外の軌道で自律走行に成功した。
本システムでは,一貫した高周波制御更新を維持しながら,24cm未満のATEを達成している。
提案手法は,従来のフレームベースシステムに比べて大幅に高い更新率を達成し,リアルタイムロボットナビゲーションにおけるイベントベース認識の実践的実現可能性を示している。
関連論文リスト
- Radar and Event Camera Fusion for Agile Robot Ego-Motion Estimation [27.282729603784496]
ロボットの移動速度を積極的に推定するためのIMUフリー・機能連想フリーフレームワークを提案する。
瞬時生イベントとドップラー計測を用いて、回転速度と翻訳速度を直接導出する。
本研究では,時間と事象を併用した連続時間状態空間モデルを提案し,よりスムーズな方法でエゴ運動速度を推定する。
論文 参考訳(メタデータ) (2025-06-23T09:27:22Z) - Dynamic Frame Interpolation in Wavelet Domain [57.25341639095404]
ビデオフレームは、より流動的な視覚体験のためにフレームレートを上げることができる、重要な低レベルな計算ビジョンタスクである。
既存の手法は、高度なモーションモデルと合成ネットワークを利用することで大きな成功を収めた。
WaveletVFIは、同様の精度を維持しながら最大40%の計算を削減できるため、他の最先端技術に対してより効率的に処理できる。
論文 参考訳(メタデータ) (2023-09-07T06:41:15Z) - EventTransAct: A video transformer-based framework for Event-camera
based action recognition [52.537021302246664]
イベントカメラは、RGBビデオの標準アクション認識と比較して、新しい機会を提供する。
本研究では,最初にイベントフレーム当たりの空間埋め込みを取得するビデオトランスフォーマーネットワーク(VTN)という,計算効率のよいモデルを用いる。
イベントデータのスパースできめ細かい性質にVTNをよりよく採用するために、イベントコントラストロス(mathcalL_EC$)とイベント固有の拡張を設計する。
論文 参考訳(メタデータ) (2023-08-25T23:51:07Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Dynamic Event-based Optical Identification and Communication [1.7289819674602298]
時間的パターン認識は、技術によっては、通信周波数、範囲、正確な追跡の間のトレードオフを伴う。
我々は、高速なイベントベースカメラを利用して、このトレードオフを改善する発光ビーコンを用いたソリューションを提案する。
我々は,kHz帯における最先端の周波数通信と同時にビーコン追跡を行った。
論文 参考訳(メタデータ) (2023-03-13T15:12:30Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Event Based, Near Eye Gaze Tracking Beyond 10,000Hz [41.23347304960948]
我々は,1万Hzを超える更新率を有するハイブリッドフレームイベントベースの近目視追跡システムを提案する。
我々のシステムは、定期的にサンプリングされたフレームと適応的にサンプリングされたイベントを同時に取得する新興イベントカメラの上に構築されている。
我々は,仮想現実と拡張現実のための,次世代の超低遅延視線コンテンツレンダリングおよび表示技術の実現を期待している。
論文 参考訳(メタデータ) (2020-04-07T17:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。