論文の概要: AxisPose: Model-Free Matching-Free Single-Shot 6D Object Pose Estimation via Axis Generation
- arxiv url: http://arxiv.org/abs/2503.06660v1
- Date: Sun, 09 Mar 2025 15:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:48:39.089755
- Title: AxisPose: Model-Free Matching-Free Single-Shot 6D Object Pose Estimation via Axis Generation
- Title(参考訳): AxisPose: 軸生成によるモデルフリーマッチングフリーのシングルショット6Dオブジェクトポス推定
- Authors: Yang Zou, Zhaoshuai Qi, Yating Liu, Zihao Xu, Weipeng Sun, Weiyi Liu, Xingyuan Li, Jiaqi Yang, Yanning Zhang,
- Abstract要約: そこで本研究では,モデルフリーでマッチングフリーで,ロバストな6次元推定のためのシングルショットソリューションであるAxisPoseを提案する。
SfMのような2D-3や2D-2Dマッチング技術に依存する既存の手法とは異なり、AxisPoseは単一のビューからロバストな6Dポーズを推測する。
- 参考スコア(独自算出の注目度): 39.6842183721145
- License:
- Abstract: Object pose estimation, which plays a vital role in robotics, augmented reality, and autonomous driving, has been of great interest in computer vision. Existing studies either require multi-stage pose regression or rely on 2D-3D feature matching. Though these approaches have shown promising results, they rely heavily on appearance information, requiring complex input (i.e., multi-view reference input, depth, or CAD models) and intricate pipeline (i.e., feature extraction-SfM-2D to 3D matching-PnP). We propose AxisPose, a model-free, matching-free, single-shot solution for robust 6D pose estimation, which fundamentally diverges from the existing paradigm. Unlike existing methods that rely on 2D-3D or 2D-2D matching using 3D techniques, such as SfM and PnP, AxisPose directly infers a robust 6D pose from a single view by leveraging a diffusion model to learn the latent axis distribution of objects without reference views. Specifically, AxisPose constructs an Axis Generation Module (AGM) to capture the latent geometric distribution of object axes through a diffusion model. The diffusion process is guided by injecting the gradient of geometric consistency loss into the noise estimation to maintain the geometric consistency of the generated tri-axis. With the generated tri-axis projection, AxisPose further adopts a Triaxial Back-projection Module (TBM) to recover the 6D pose from the object tri-axis. The proposed AxisPose achieves robust performance at the cross-instance level (i.e., one model for N instances) using only a single view as input without reference images, with great potential for generalization to unseen-object level.
- Abstract(参考訳): ロボット工学、拡張現実、自動運転において重要な役割を果たすオブジェクトのポーズ推定は、コンピュータビジョンに大きな関心を寄せている。
既存の研究では、多段階のポーズ回帰を必要とするか、2D-3D特徴マッチングに依存している。
これらのアプローチは有望な結果を示しているが、外観情報に大きく依存し、複雑な入力(マルチビュー参照入力、深さ、CADモデル)と複雑なパイプライン(特徴抽出-SfM-2Dから3Dマッチング-PnP)を必要とする。
本稿では,モデルフリーでマッチングフリーで,ロバストな6次元ポーズ推定のための単一ショットソリューションであるAxisPoseを提案する。
SfMやPnPといった3D技術を用いた2D-3Dや2D-2Dマッチングに依存する既存の手法とは異なり、AxisPoseは拡散モデルを利用して単一のビューから頑健な6Dポーズを推論し、参照ビューなしでオブジェクトの潜時軸分布を学習する。
具体的には、AxisPoseは、拡散モデルを通してオブジェクト軸の潜在幾何学的分布を捉えるために、Axis Generation Module (AGM)を構築する。
拡散過程をノイズ推定に幾何整合損失の勾配を注入し、生成した三軸の幾何整合性を維持する。
生成された3軸プロジェクションにより、AxisPoseはさらに3軸後方プロジェクションモジュール(TBM)を採用し、対象の3軸から6Dポーズを復元する。
提案したAxisPoseは、参照画像のない入力として単一のビューのみを使用して、クロスインスタンスレベル(すなわちNインスタンスの1モデル)で堅牢な性能を達成する。
関連論文リスト
- A Novel Convolution and Attention Mechanism-based Model for 6D Object Pose Estimation [49.1574468325115]
RGB画像から6Dオブジェクトのポーズを推定することは、深度情報の欠如が2次元投影から3次元構造を推定する必要があるため困難である。
従来の手法はグリッドベースのデータ構造によるディープラーニングに頼っていることが多いが、抽出された機能間の複雑な依存関係を捉えるのに苦労している。
本稿では,各画素の時間的特徴がノードとして機能し,それらの関係はノード接続や空間的相互作用を通じて定義される,画像から直接のグラフベース表現を提案する。
論文 参考訳(メタデータ) (2024-12-31T18:47:54Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - 6D Object Pose Estimation from Approximate 3D Models for Orbital
Robotics [19.64111218032901]
単一画像から物体の6次元ポーズを推定する新しい手法を提案する。
画素毎に3次元モデル座標を回帰する高密度な2次元から3次元対応予測器を用いる。
提案手法は,SPEED+データセット上での最先端性能を実現し,SPEC2021ポストモーテムコンペティションで優勝した。
論文 参考訳(メタデータ) (2023-03-23T13:18:05Z) - SC6D: Symmetry-agnostic and Correspondence-free 6D Object Pose
Estimation [12.773040823634908]
本稿では,単一の単分子RGB画像から6次元オブジェクトのポーズ推定を行うための効率的なフレームワークSC6Dを提案する。
SC6Dは、オブジェクトの3DCADモデルも、対称性の事前の知識も必要としない。
SC6Dは、T-LESS、YCB-V、ITODDの3つのベンチマークデータセットで評価され、その結果、最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2022-08-03T15:08:27Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - CenterSnap: Single-Shot Multi-Object 3D Shape Reconstruction and
Categorical 6D Pose and Size Estimation [19.284468553414918]
本稿では, 単視点RGB-D観測による同時多目的3次元再構成, 6次元ポーズ, サイズ推定の複雑な課題について検討する。
既存のアプローチは主に、イメージ内の各オブジェクトインスタンスをローカライズして検出し、3Dメッシュまたは6Dポーズに回帰する複雑なマルチステージパイプラインに従う。
本研究では,3次元形状の予測と6次元ポーズと大きさの同時推定を,バウンディングボックスフリーで行うための簡単な一段階的手法を提案する。
論文 参考訳(メタデータ) (2022-03-03T18:59:04Z) - Stochastic Modeling for Learnable Human Pose Triangulation [0.7646713951724009]
本研究では,3次元ポーズ三角測量のためのモデリングフレームワークを提案し,その性能を異なるデータセットと空間カメラアレンジメントで評価する。
提案したポーズ三角測量モデルは、異なるカメラアレンジメントと2つの公開データセット間の一般化に成功している。
論文 参考訳(メタデータ) (2021-10-01T09:26:25Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。