論文の概要: PoseStreamer: A Multi-modal Framework for 6DoF Pose Estimation of Unseen Moving Objects
- arxiv url: http://arxiv.org/abs/2512.22979v2
- Date: Wed, 31 Dec 2025 15:59:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 15:47:54.418105
- Title: PoseStreamer: A Multi-modal Framework for 6DoF Pose Estimation of Unseen Moving Objects
- Title(参考訳): PoseStreamer: 見えない移動物体の6DoF Pose推定のためのマルチモーダルフレームワーク
- Authors: Huiming Yang, Linglin Liao, Fei Ding, Sibo Wang, Zijian Zeng,
- Abstract要約: PoseStreamerは高速移動シナリオのための堅牢なマルチモーダル6DoFポーズ推定フレームワークである。
MoCapCube6Dは、高速動作下でのパフォーマンスをベンチマークするために構築された、新しいマルチモーダルデータセットである。
- 参考スコア(独自算出の注目度): 4.1334804706669095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Six degree of freedom (6DoF) pose estimation for novel objects is a critical task in computer vision, yet it faces significant challenges in high-speed and low-light scenarios where standard RGB cameras suffer from motion blur. While event cameras offer a promising solution due to their high temporal resolution, current 6DoF pose estimation methods typically yield suboptimal performance in high-speed object moving scenarios. To address this gap, we propose PoseStreamer, a robust multi-modal 6DoF pose estimation framework designed specifically on high-speed moving scenarios. Our approach integrates three core components: an Adaptive Pose Memory Queue that utilizes historical orientation cues for temporal consistency, an Object-centric 2D Tracker that provides strong 2D priors to boost 3D center recall, and a Ray Pose Filter for geometric refinement along camera rays. Furthermore, we introduce MoCapCube6D, a novel multi-modal dataset constructed to benchmark performance under rapid motion. Extensive experiments demonstrate that PoseStreamer not only achieves superior accuracy in high-speed moving scenarios, but also exhibits strong generalizability as a template-free framework for unseen moving objects.
- Abstract(参考訳): 6自由度(6DoF)は、コンピュータビジョンにおいて重要な課題であるが、標準のRGBカメラが動きのぼけに悩まされるような高速かつ低照度シナリオでは大きな課題に直面している。
イベントカメラは、時間分解能が高いため、有望な解決策を提供するが、現在の6DoFポーズ推定法は、通常、高速物体移動シナリオにおいて、最適以下の性能が得られる。
このギャップに対処するために,高速移動シナリオに特化して設計されたロバストなマルチモーダル6DoFポーズ推定フレームワークであるPoseStreamerを提案する。
提案手法は3つのコアコンポーネントを統合する: 時間的整合性のために歴史的向きのキューを利用する適応型Pose Memory Queue, 3Dセンターリコールを促進するための強力な2D前処理を提供するオブジェクト中心の2Dトラッカー, カメラ線に沿った幾何学的洗練のためのRay Pose Filter。
さらに,高速動作下での性能をベンチマークするために構築された新しいマルチモーダルデータセットであるMoCapCube6Dを紹介する。
大規模な実験では、PoseStreamerは高速な移動シナリオにおいて優れた精度を達成するだけでなく、目に見えない移動オブジェクトのためのテンプレートのないフレームワークとして強力な一般化性を示す。
関連論文リスト
- Optical Flow-Guided 6DoF Object Pose Tracking with an Event Camera [18.13747114612191]
イベントカメラを用いた光学式フロー誘導型6DoFオブジェクトポーズトラッキング手法を提案する。
提案手法は,精度とロバスト性の両方の観点から,イベントベース最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-12-24T08:40:57Z) - OnlineSplatter: Pose-Free Online 3D Reconstruction for Free-Moving Objects [58.38338242973447]
OnlineSplatterは、RGBフレームから直接高品質でオブジェクト中心の3Dガウシアンを生成する新しいフレームワークである。
提案手法は,第1フレームを用いて再構成をアンカーし,高密度ガウス原始体を通して対象表現を漸進的に洗練する。
我々のコアコントリビューションは、潜伏した外見幾何学キーと明示的な方向キーを組み合わせたデュアルキーメモリモジュールです。
論文 参考訳(メタデータ) (2025-10-23T14:37:25Z) - 6-DoF Object Tracking with Event-based Optical Flow and Frames [12.63903994540524]
本研究では,物体の動き計測のためのイベントベース光フローアルゴリズムを提案し,物体の6-DoF速度トラッカーを実装した。
追跡対象6-DoF速度とグローバルポーズ推定器からの低周波数推定ポーズを統合することにより、物体が高速に動いたときのポーズを追跡することができる。
論文 参考訳(メタデータ) (2025-08-20T15:22:51Z) - DynamicPose: Real-time and Robust 6D Object Pose Tracking for Fast-Moving Cameras and Objects [4.15520326813392]
トレーニング不要な6DポーズトラッキングフレームワークであるDynamicPoseを紹介する。
素早く動くカメラやオブジェクトのシナリオにおけるロバストさのトラッキングを改善する。
論文 参考訳(メタデータ) (2025-08-16T07:25:08Z) - Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - ROFT: Real-Time Optical Flow-Aided 6D Object Pose and Velocity Tracking [7.617467911329272]
RGB-D画像ストリームからの6次元オブジェクトポーズと速度追跡のためのカルマンフィルタ手法であるROFTを導入する。
リアルタイム光フローを活用することで、ROFTは低フレームレートの畳み込みニューラルネットワークの遅延出力をインスタンスセグメンテーションと6Dオブジェクトのポーズ推定に同期させる。
その結果,本手法は6次元オブジェクトのポーズトラッキングと6次元オブジェクトの速度トラッキングを併用しながら,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-11-06T07:30:00Z) - CAPTRA: CAtegory-level Pose Tracking for Rigid and Articulated Objects
from Point Clouds [97.63549045541296]
新規なリジッドオブジェクトインスタンスに対する9DoFポーズトラッキングと,関節付きオブジェクトに対するパート毎ポーズトラッキングを処理可能な統一フレームワークを提案する。
本手法は、高速なFPS 12で、カテゴリレベルのリジッドオブジェクトポーズ(NOCS-REAL275)と関節オブジェクトポーズベンチマーク(SAPIEN、BMVC)の最新のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-08T00:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。