論文の概要: Event-based Motion & Appearance Fusion for 6D Object Pose Tracking
- arxiv url: http://arxiv.org/abs/2603.08264v1
- Date: Mon, 09 Mar 2026 11:34:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.840553
- Title: Event-based Motion & Appearance Fusion for 6D Object Pose Tracking
- Title(参考訳): 6次元物体追跡のためのイベントベースモーション・アンド・外観融合
- Authors: Zhichao Li, Chiara Bartolozzi, Lorenzo Natale, Arren Glover,
- Abstract要約: イベントカメラには、高時間分解能や低レイテンシといった際立った特徴がある。
本稿では,ポーズ補正戦略と融合した伝搬ステップを併用する手法を提案する。
我々の学習自由法は最先端のアルゴリズムに匹敵する性能を有する。
- 参考スコア(独自算出の注目度): 19.564467602010975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object pose tracking is a fundamental and essential task for robotics to perform tasks in the home and industrial settings. The most commonly used sensors to do so are RGB-D cameras, which can hit limitations in highly dynamic environments due to motion blur and frame-rate constraints. Event cameras have remarkable features such as high temporal resolution and low latency, which make them a potentially ideal vision sensors for object pose tracking at high speed. Even so, there are still only few works on 6D pose tracking with event cameras. In this work, we take advantage of the high temporal resolution and propose a method that uses both a propagation step fused with a pose correction strategy. Specifically, we use 6D object velocity obtained from event-based optical flow for pose propagation, after which, a template-based local pose correction module is utilized for pose correction. Our learning-free method has comparable performance to the state-of-the-art algorithms, and in some cases out performs them for fast-moving objects. The results indicate the potential for using event cameras in highly-dynamic scenarios where the use of deep network approaches are limited by low update rates.
- Abstract(参考訳): オブジェクトのポーズトラッキングは、ロボット工学が家庭や産業環境でタスクを実行するための基本的で必須のタスクである。
最もよく使われるセンサーはRGB-Dカメラで、動きのぼやけやフレームレートの制約により、非常にダイナミックな環境で制限を受けることができる。
イベントカメラには、高時間分解能や低レイテンシといった特筆すべき特徴があるため、オブジェクトのポーズトラッキングを高速で行うための、潜在的に理想的な視覚センサとなる。
それでも、イベントカメラで6Dのポーズトラッキングを行う作業は、まだごくわずかだ。
本研究では,高時間分解能を生かし,ポーズ補正戦略と融合した伝搬ステップを併用する手法を提案する。
具体的には、イベントベースの光学的流れから得られた6次元物体速度をポーズ伝搬に利用し、その後、テンプレートベースの局所ポーズ補正モジュールを用いてポーズ補正を行う。
我々の学習自由法は最先端のアルゴリズムに匹敵する性能を有しており、場合によっては高速移動オブジェクトに対してそれらを実行する。
その結果、ディープ・ネットワーク・アプローチが低い更新率で制限されるような高ダイナミックなシナリオでイベント・カメラを使用する可能性が示唆された。
関連論文リスト
- GeoMotion: Rethinking Motion Segmentation via Latent 4D Geometry [61.24189040578178]
そこで本研究では,注目機構を介し,潜在特徴表現から移動対象を直接推論する完全学習型アプローチを提案する。
我々の重要な洞察は、明示的な対応推定を回避し、代わりに、モデルが暗黙的にオブジェクトとカメラの動きを歪めることを学ぶことである。
提案手法は,最先端の動作セグメンテーション性能を高い効率で達成する。
論文 参考訳(メタデータ) (2026-02-25T11:36:33Z) - Optical Flow-Guided 6DoF Object Pose Tracking with an Event Camera [18.13747114612191]
イベントカメラを用いた光学式フロー誘導型6DoFオブジェクトポーズトラッキング手法を提案する。
提案手法は,精度とロバスト性の両方の観点から,イベントベース最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-12-24T08:40:57Z) - 6-DoF Object Tracking with Event-based Optical Flow and Frames [12.63903994540524]
本研究では,物体の動き計測のためのイベントベース光フローアルゴリズムを提案し,物体の6-DoF速度トラッカーを実装した。
追跡対象6-DoF速度とグローバルポーズ推定器からの低周波数推定ポーズを統合することにより、物体が高速に動いたときのポーズを追跡することができる。
論文 参考訳(メタデータ) (2025-08-20T15:22:51Z) - DynamicPose: Real-time and Robust 6D Object Pose Tracking for Fast-Moving Cameras and Objects [4.15520326813392]
トレーニング不要な6DポーズトラッキングフレームワークであるDynamicPoseを紹介する。
素早く動くカメラやオブジェクトのシナリオにおけるロバストさのトラッキングを改善する。
論文 参考訳(メタデータ) (2025-08-16T07:25:08Z) - From Sharp to Blur: Unsupervised Domain Adaptation for 2D Human Pose Estimation Under Extreme Motion Blur Using Event Cameras [47.65729940410823]
ヒトのポーズ推定は、リハビリテーション、スポーツ分析、AR/VRシステムといった応用において重要である。
ほとんどのデータセットは安定した条件を前提としており、シャープな画像で訓練されたモデルはぼやけた環境で苦労する。
本稿では,高時間分解能モーションデータをキャプチャするイベントカメラを利用した新しい領域適応手法を提案する。
論文 参考訳(メタデータ) (2025-07-30T07:30:40Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Continuous Pose for Monocular Cameras in Neural Implicit Representation [65.40527279809474]
本稿では,時間的連続的な機能として単眼カメラのポーズを最適化することの有効性を示す。
提案手法を4つの異なる実験環境において活用する。
連続運動の仮定を用いて、ポーズの変化は実際には6度以下の自由度(DOF)を持つ多様体に生きることができる。
我々はこの低DOF動作表現を固有運動と呼び、vSLAM設定でのアプローチを用い、カメラ追跡性能を高く評価した。
論文 参考訳(メタデータ) (2023-11-28T13:14:58Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - ROFT: Real-Time Optical Flow-Aided 6D Object Pose and Velocity Tracking [7.617467911329272]
RGB-D画像ストリームからの6次元オブジェクトポーズと速度追跡のためのカルマンフィルタ手法であるROFTを導入する。
リアルタイム光フローを活用することで、ROFTは低フレームレートの畳み込みニューラルネットワークの遅延出力をインスタンスセグメンテーションと6Dオブジェクトのポーズ推定に同期させる。
その結果,本手法は6次元オブジェクトのポーズトラッキングと6次元オブジェクトの速度トラッキングを併用しながら,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-06T07:30:00Z) - VIPose: Real-time Visual-Inertial 6D Object Pose Tracking [3.44942675405441]
本稿では,オブジェクトのポーズ追跡問題にリアルタイムに対処するために,VIPoseと呼ばれる新しいディープニューラルネットワーク(DNN)を提案する。
重要な貢献は、オブジェクトの相対的な6Dポーズを予測するために視覚的および慣性的特徴を融合する新しいDNNアーキテクチャの設計である。
このアプローチでは、最先端技術に匹敵する精度性能を示すが、リアルタイムであることにはさらなるメリットがある。
論文 参考訳(メタデータ) (2021-07-27T06:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。