論文の概要: Novel Object 6D Pose Estimation with a Single Reference View
- arxiv url: http://arxiv.org/abs/2503.05578v1
- Date: Fri, 07 Mar 2025 17:00:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-10 12:20:52.696506
- Title: Novel Object 6D Pose Estimation with a Single Reference View
- Title(参考訳): 単一参照ビューを用いた新しいオブジェクト6次元ポス推定
- Authors: Jian Liu, Wei Sun, Kai Zeng, Jin Zheng, Hui Yang, Lin Wang, Hossein Rahmani, Ajmal Mian,
- Abstract要約: 単一参照に基づく新しいオブジェクト6D(SinRef-6D)のポーズ推定法を提案する。
我々のキーとなる考え方は、状態空間モデル(SSM)に基づいて、カメラ座標系におけるポイントワイドアライメントを反復的に確立することである。
SinRef-6Dは、合成データに基づいて事前訓練された後、単一の参照ビューのみを使用して、新しいオブジェクトの6Dポーズを推定できる。
- 参考スコア(独自算出の注目度): 39.226579637659235
- License:
- Abstract: Existing novel object 6D pose estimation methods typically rely on CAD models or dense reference views, which are both difficult to acquire. Using only a single reference view is more scalable, but challenging due to large pose discrepancies and limited geometric and spatial information. To address these issues, we propose a Single-Reference-based novel object 6D (SinRef-6D) pose estimation method. Our key idea is to iteratively establish point-wise alignment in the camera coordinate system based on state space models (SSMs). Specifically, iterative camera-space point-wise alignment can effectively handle large pose discrepancies, while our proposed RGB and Points SSMs can capture long-range dependencies and spatial information from a single view, offering linear complexity and superior spatial modeling capability. Once pre-trained on synthetic data, SinRef-6D can estimate the 6D pose of a novel object using only a single reference view, without requiring retraining or a CAD model. Extensive experiments on six popular datasets and real-world robotic scenes demonstrate that we achieve on-par performance with CAD-based and dense reference view-based methods, despite operating in the more challenging single reference setting. Code will be released at https://github.com/CNJianLiu/SinRef-6D.
- Abstract(参考訳): 既存のオブジェクト6Dのポーズ推定手法はCADモデルや高密度参照ビューに依存しており、どちらも取得が困難である。
単一の参照ビューのみを使用することは、よりスケーラブルであるが、大きなポーズの相違と、幾何学的および空間的情報に制限があるため困難である。
これらの問題に対処するために、単参照に基づく新しいオブジェクト6D (SinRef-6D) のポーズ推定手法を提案する。
我々のキーとなる考え方は、状態空間モデル(SSM)に基づいて、カメラ座標系におけるポイントワイドアライメントを反復的に確立することである。
具体的には、反復的なカメラ空間のポイントワイドアライメントは、大きなポーズの相違を効果的に扱える一方で、提案したRGBおよびポイントSSMは、単一のビューから長距離依存や空間情報をキャプチャし、線形複雑性とより優れた空間モデリング能力を提供する。
SinRef-6Dは、合成データに基づいて事前トレーニングされた後、単一の参照ビューのみを使用して新しいオブジェクトの6Dポーズを、再トレーニングやCADモデルを必要とせずに推定することができる。
6つの一般的なデータセットと実世界のロボットシーンの大規模な実験により、より困難な単一の参照設定で運用されているにも関わらず、CADベースで高密度な参照ビューベースの手法でオンパーパフォーマンスを実現することが実証された。
コードはhttps://github.com/CNJianLiu/SinRef-6Dでリリースされる。
関連論文リスト
- FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - SA6D: Self-Adaptive Few-Shot 6D Pose Estimator for Novel and Occluded
Objects [24.360831082478313]
提案手法は,SA6Dと呼ばれる数ショットポーズ推定(FSPE)手法である。
自己適応的なセグメンテーションモジュールを使用して、新しいターゲットオブジェクトを特定し、ターゲットオブジェクトのポイントクラウドモデルを構築する。
実世界のテーブルトップオブジェクトデータセット上でSA6Dを評価し,既存のFSPE手法よりもSA6Dが優れていることを示す。
論文 参考訳(メタデータ) (2023-08-31T08:19:26Z) - Learning to Estimate 6DoF Pose from Limited Data: A Few-Shot,
Generalizable Approach using RGB Images [60.0898989456276]
本稿では,数ショットの6DoFポーズ推定のためのCas6Dという新しいフレームワークを提案する。
極めて少数の設定で対象物検出の偽陽性に対処するために,本フレームワークでは,自己教師付き事前学習型ViTを用いて,ロバストな特徴表現を学習する。
LINEMODとGenMOPデータセットの実験結果は、Cas6Dが32ショット設定で最先端の手法を9.2%、精度3.8%(Proj-5)で上回ることを示した。
論文 参考訳(メタデータ) (2023-06-13T07:45:42Z) - Self-Supervised Geometric Correspondence for Category-Level 6D Object
Pose Estimation in the Wild [47.80637472803838]
本研究では,大規模現実世界のオブジェクトビデオを直接学習し,カテゴリーレベルの6Dポーズ推定を行う自己教師型学習手法を提案する。
本フレームワークは,対象カテゴリの正準3次元形状を再構成し,入力画像と正準形状との密接な対応を表面埋め込みにより学習する。
意外なことに、人間のアノテーションやシミュレータを使わずに、従来の教師付きあるいは半教師付き画像の半教師付き手法よりも、オンパーまたはそれ以上のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2022-10-13T17:19:22Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - CenterSnap: Single-Shot Multi-Object 3D Shape Reconstruction and
Categorical 6D Pose and Size Estimation [19.284468553414918]
本稿では, 単視点RGB-D観測による同時多目的3次元再構成, 6次元ポーズ, サイズ推定の複雑な課題について検討する。
既存のアプローチは主に、イメージ内の各オブジェクトインスタンスをローカライズして検出し、3Dメッシュまたは6Dポーズに回帰する複雑なマルチステージパイプラインに従う。
本研究では,3次元形状の予測と6次元ポーズと大きさの同時推定を,バウンディングボックスフリーで行うための簡単な一段階的手法を提案する。
論文 参考訳(メタデータ) (2022-03-03T18:59:04Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - CosyPose: Consistent multi-view multi-object 6D pose estimation [48.097599674329004]
単視点単体6次元ポーズ推定法を提案し、6次元オブジェクトのポーズ仮説を生成する。
第2に、異なる入力画像間で個々の6次元オブジェクトのポーズをマッチングするロバストな手法を開発する。
第3に、複数のオブジェクト仮説とそれらの対応性を考慮したグローバルなシーン改善手法を開発した。
論文 参考訳(メタデータ) (2020-08-19T14:11:56Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。