論文の概要: 6-DoF Object Tracking with Event-based Optical Flow and Frames
- arxiv url: http://arxiv.org/abs/2508.14776v1
- Date: Wed, 20 Aug 2025 15:22:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.498872
- Title: 6-DoF Object Tracking with Event-based Optical Flow and Frames
- Title(参考訳): イベントベース光フローとフレームを用いた6自由度物体追跡
- Authors: Zhichao Li, Arren Glover, Chiara Bartolozzi, Lorenzo Natale,
- Abstract要約: 本研究では,物体の動き計測のためのイベントベース光フローアルゴリズムを提案し,物体の6-DoF速度トラッカーを実装した。
追跡対象6-DoF速度とグローバルポーズ推定器からの低周波数推定ポーズを統合することにより、物体が高速に動いたときのポーズを追跡することができる。
- 参考スコア(独自算出の注目度): 12.63903994540524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking the position and orientation of objects in space (i.e., in 6-DoF) in real time is a fundamental problem in robotics for environment interaction. It becomes more challenging when objects move at high-speed due to frame rate limitations in conventional cameras and motion blur. Event cameras are characterized by high temporal resolution, low latency and high dynamic range, that can potentially overcome the impacts of motion blur. Traditional RGB cameras provide rich visual information that is more suitable for the challenging task of single-shot object pose estimation. In this work, we propose using event-based optical flow combined with an RGB based global object pose estimator for 6-DoF pose tracking of objects at high-speed, exploiting the core advantages of both types of vision sensors. Specifically, we propose an event-based optical flow algorithm for object motion measurement to implement an object 6-DoF velocity tracker. By integrating the tracked object 6-DoF velocity with low frequency estimated pose from the global pose estimator, the method can track pose when objects move at high-speed. The proposed algorithm is tested and validated on both synthetic and real world data, demonstrating its effectiveness, especially in high-speed motion scenarios.
- Abstract(参考訳): 空間における物体の位置と方向(すなわち6-DoF)をリアルタイムで追跡することは、環境相互作用のためのロボティクスの基本的な問題である。
従来のカメラのフレームレート制限や動きのぼかしにより、物体が高速で移動すると、より困難になる。
イベントカメラは、高時間分解能、低レイテンシ、高ダイナミックレンジを特徴とし、動きのぼけの影響を克服する可能性がある。
従来のRGBカメラは、シングルショットオブジェクトポーズ推定の困難なタスクにより適したリッチな視覚情報を提供する。
本研究では,RGBをベースとした大域的オブジェクトポーズ推定器とイベントベースの光学的フローを用いて,物体の高速なポーズトラッキングを行い,両タイプの視覚センサのコア・アドバンテージを活用することを提案する。
具体的には,物体の動き計測のためのイベントベース光フローアルゴリズムを提案し,物体の6-DoF速度トラッカーを実装する。
追跡対象6-DoF速度とグローバルポーズ推定器からの低周波数推定ポーズを統合することにより、物体が高速に動いたときのポーズを追跡することができる。
提案アルゴリズムは, 合成データと実世界のデータの両方で検証し, その有効性, 特に高速な動きシナリオで実証する。
関連論文リスト
- TOFFE -- Temporally-binned Object Flow from Events for High-speed and Energy-Efficient Object Detection and Tracking [10.458676835674847]
イベントベースのカメラは、非常に高時間分解能と低消費電力で強度レベルの変化だけを捉えることで、生物学的にインスパイアされた解決策を提供する。
イベントベースの物体の動き推定を行うための軽量ハイブリッドフレームワークTOFFEを提案する。
論文 参考訳(メタデータ) (2025-01-21T20:20:34Z) - MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - FEDORA: Flying Event Dataset fOr Reactive behAvior [9.470870778715689]
イベントベースのセンサーは、高速な動きを捉えるための標準フレームベースのカメラに代わる低レイテンシと低エネルギーの代替として登場した。
Flying Eventデータセット fOr Reactive behAviour (FEDORA) - 知覚タスクのための完全に合成されたデータセット。
論文 参考訳(メタデータ) (2023-05-22T22:59:05Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - ROFT: Real-Time Optical Flow-Aided 6D Object Pose and Velocity Tracking [7.617467911329272]
RGB-D画像ストリームからの6次元オブジェクトポーズと速度追跡のためのカルマンフィルタ手法であるROFTを導入する。
リアルタイム光フローを活用することで、ROFTは低フレームレートの畳み込みニューラルネットワークの遅延出力をインスタンスセグメンテーションと6Dオブジェクトのポーズ推定に同期させる。
その結果,本手法は6次元オブジェクトのポーズトラッキングと6次元オブジェクトの速度トラッキングを併用しながら,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-06T07:30:00Z) - Tracking 6-DoF Object Motion from Events and Frames [0.0]
本研究では,6自由度(6-DoF)物体の動き追跡のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T12:39:38Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。