論文の概要: RGBTrack: Fast, Robust Depth-Free 6D Pose Estimation and Tracking
- arxiv url: http://arxiv.org/abs/2506.17119v1
- Date: Fri, 20 Jun 2025 16:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.534616
- Title: RGBTrack: Fast, Robust Depth-Free 6D Pose Estimation and Tracking
- Title(参考訳): RGBTrack:高速でロバストで奥行きのない6D画像の推定と追跡
- Authors: Teng Guo, Jingjin Yu,
- Abstract要約: リアルタイムな6Dポーズ推定と追跡のためのロバストなフレームワークRGBTrackを導入する。
我々は、深度を効率的に推測するレンダリング・アンド・コンパートメント機構と組み合わせた、新しいバイナリ検索戦略を考案した。
RGBTrackの新たなディープフリーアプローチは,競合精度とリアルタイム性能を実現する。
- 参考スコア(独自算出の注目度): 24.866881488130407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a robust framework, RGBTrack, for real-time 6D pose estimation and tracking that operates solely on RGB data, thereby eliminating the need for depth input for such dynamic and precise object pose tracking tasks. Building on the FoundationPose architecture, we devise a novel binary search strategy combined with a render-and-compare mechanism to efficiently infer depth and generate robust pose hypotheses from true-scale CAD models. To maintain stable tracking in dynamic scenarios, including rapid movements and occlusions, RGBTrack integrates state-of-the-art 2D object tracking (XMem) with a Kalman filter and a state machine for proactive object pose recovery. In addition, RGBTrack's scale recovery module dynamically adapts CAD models of unknown scale using an initial depth estimate, enabling seamless integration with modern generative reconstruction techniques. Extensive evaluations on benchmark datasets demonstrate that RGBTrack's novel depth-free approach achieves competitive accuracy and real-time performance, making it a promising practical solution candidate for application areas including robotics, augmented reality, and computer vision. The source code for our implementation will be made publicly available at https://github.com/GreatenAnoymous/RGBTrack.git.
- Abstract(参考訳): 本稿では,RGBデータのみで動作するリアルタイム6次元ポーズ推定と追跡のためのロバストなフレームワークであるRGBTrackを導入し,動的かつ高精度なオブジェクトポーズ追跡タスクの深度入力を不要とした。
ファウンデーションPoseアーキテクチャ上に構築された新しいバイナリ検索戦略とレンダリング・アンド・コンパレント機構を組み合わせることで,深度を効率的に推定し,真の規模のCADモデルからロバストなポーズ仮説を生成する。
高速な動きや閉塞を含む動的シナリオにおける安定したトラッキングを維持するため、RGBTrackは最先端の2Dオブジェクトトラッキング(XMem)をカルマンフィルタとアクティブなオブジェクトポーズリカバリのためのステートマシンと統合する。
さらに、RGBTrackのスケールリカバリモジュールは、初期深度推定を用いて未知スケールのCADモデルを動的に適応させ、現代の生成的再構築技術とシームレスに統合する。
ベンチマークデータセットに対する大規模な評価は、RGBTrackの新たなディープフリーアプローチが、競争の正確さとリアルタイムのパフォーマンスを実現し、ロボット工学、拡張現実、コンピュータビジョンを含むアプリケーション分野の有望な実用的なソリューション候補であることを示している。
私たちの実装のソースコードはhttps://github.com/GreatenAnoymous/RGBTrack.git.comで公開されます。
関連論文リスト
- St4RTrack: Simultaneous 4D Reconstruction and Tracking in the World [106.91539872943864]
St4RTrackは、RGB入力から世界座標フレーム内の動的ビデオコンテンツを同時に再構成し、追跡するフレームワークである。
静的および動的シーン幾何学の両方をキャプチャして、同じ世界において、同時に両方のポイントマップを予測する。
統合されたデータ駆動フレームワークの有効性と効率を実証し、世界フレームの再構築と追跡のための新しい広範囲なベンチマークを構築します。
論文 参考訳(メタデータ) (2025-04-17T17:55:58Z) - Street Gaussians without 3D Object Tracker [86.62329193275916]
既存の方法は、標準空間における動的オブジェクトを再構築するために、オブジェクトポーズの労働集約的な手動ラベリングに依存している。
本研究では,3次元オブジェクト融合戦略における2次元ディープトラッカーの関連性を利用して,安定なオブジェクト追跡モジュールを提案する。
我々は、軌道誤差を自律的に補正し、見逃した検出を回復する暗黙の特徴空間に、モーションラーニング戦略を導入することで、避けられないトラッキングエラーに対処する。
論文 参考訳(メタデータ) (2024-12-07T05:49:42Z) - 6DOPE-GS: Online 6D Object Pose Estimation using Gaussian Splatting [7.7145084897748974]
1台のRGB-Dカメラで6Dオブジェクトのポーズを推定・追跡する新しい手法である6DOPE-GSを提案する。
その結果,6DOPE-GSはモデルレス同時ポーズトラッキングと再構築のための最先端ベースラインの性能と一致していることがわかった。
また,実世界の環境下での動的物体追跡と再構成のための手法の適合性を実証した。
論文 参考訳(メタデータ) (2024-12-02T14:32:19Z) - Depth Attention for Robust RGB Tracking [21.897255266278275]
本稿では,RGBビデオシーケンスにおける動きのぼかしの影響や視界外なターゲット追跡の課題に対処するために,単眼深度推定を利用した新しいフレームワークを提案する。
我々の知識を最大限に活用するために、我々は最初に深度注意機構を提案し、深度情報と美術追跡アルゴリズムの状態をシームレスに統合するシンプルなフレームワークを定式化した。
論文 参考訳(メタデータ) (2024-10-27T09:47:47Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Learning Dynamic View Synthesis With Few RGBD Cameras [60.36357774688289]
本稿では,RGBDカメラを用いて動的屋内シーンのフリー視点映像を合成することを提案する。
我々は、RGBDフレームから点雲を生成し、それをニューラル機能を介して、自由視点ビデオにレンダリングする。
そこで本研究では,未完成の深度を適応的に塗布して新規なビューを描画する,シンプルなRegional Depth-Inpaintingモジュールを提案する。
論文 参考訳(メタデータ) (2022-04-22T03:17:35Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - How to track your dragon: A Multi-Attentional Framework for real-time
RGB-D 6-DOF Object Pose Tracking [35.21561169636035]
本稿では,リアルタイムRGB-D 6Dオブジェクトのポーズトラッキング問題に対処するために,新しい多目的畳み込みアーキテクチャを提案する。
物体の3次元モデルとポーズ空間の両方の特別な幾何学的性質を考察し、トレーニング中のデータ拡張により洗練されたアプローチを用いる。
論文 参考訳(メタデータ) (2020-04-21T23:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。