論文の概要: PoseGAM: Robust Unseen Object Pose Estimation via Geometry-Aware Multi-View Reasoning
- arxiv url: http://arxiv.org/abs/2512.10840v1
- Date: Thu, 11 Dec 2025 17:29:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.486679
- Title: PoseGAM: Robust Unseen Object Pose Estimation via Geometry-Aware Multi-View Reasoning
- Title(参考訳): PoseGAM:Geometry-Aware Multi-View Reasoningによるロバストなオブジェクトポス推定
- Authors: Jianqi Chen, Biao Zhang, Xiangjun Tang, Peter Wonka,
- Abstract要約: PoseGAMは、クエリ画像と複数のテンプレート画像からオブジェクトのポーズを直接予測する幾何学的なマルチビューフレームワークである。
多様な環境条件下で190k以上のオブジェクトを含む大規模合成データセットを構築した。
- 参考スコア(独自算出の注目度): 49.66437612420291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6D object pose estimation, which predicts the transformation of an object relative to the camera, remains challenging for unseen objects. Existing approaches typically rely on explicitly constructing feature correspondences between the query image and either the object model or template images. In this work, we propose PoseGAM, a geometry-aware multi-view framework that directly predicts object pose from a query image and multiple template images, eliminating the need for explicit matching. Built upon recent multi-view-based foundation model architectures, the method integrates object geometry information through two complementary mechanisms: explicit point-based geometry and learned features from geometry representation networks. In addition, we construct a large-scale synthetic dataset containing more than 190k objects under diverse environmental conditions to enhance robustness and generalization. Extensive evaluations across multiple benchmarks demonstrate our state-of-the-art performance, yielding an average AR improvement of 5.1% over prior methods and achieving up to 17.6% gains on individual datasets, indicating strong generalization to unseen objects. Project page: https://windvchen.github.io/PoseGAM/ .
- Abstract(参考訳): 6Dオブジェクトのポーズ推定は、カメラの相対的なオブジェクトの変換を予測するが、まだ見えないオブジェクトでは難しい。
既存のアプローチは通常、クエリイメージとオブジェクトモデルまたはテンプレートイメージとの間の特徴対応を明示的に構築することに依存します。
本研究では,クエリ画像と複数テンプレート画像から直接オブジェクトのポーズを予測し,明示的なマッチングの必要性を排除した幾何学的マルチビューフレームワークPoseGAMを提案する。
近年の多視点基盤モデルアーキテクチャに基づいて構築されたこの手法は,2つの相補的なメカニズムによってオブジェクトの幾何学情報を統合している。
さらに, 多様な環境条件下で190k以上のオブジェクトを含む大規模合成データセットを構築し, 堅牢性と一般化性を高める。
複数のベンチマークにわたる大規模な評価は、最先端のパフォーマンスを示し、従来の手法よりも平均で5.1%改善し、個々のデータセットで最大17.6%向上し、目に見えないオブジェクトへの強力な一般化を示している。
プロジェクトページ: https://windvchen.github.io/PoseGAM/
関連論文リスト
- One2Any: One-Reference 6D Pose Estimation for Any Object [98.50085481362808]
6Dオブジェクトのポーズ推定は、完全な3Dモデルへの依存、マルチビューイメージ、特定のオブジェクトカテゴリに限定したトレーニングのため、多くのアプリケーションにとって依然として困難である。
本稿では,単一の参照単一クエリRGB-D画像のみを用いて,相対6自由度(DOF)オブジェクトのポーズを推定する新しい手法One2Anyを提案する。
複数のベンチマークデータセットの実験により、我々のモデルは新しいオブジェクトによく一般化し、最先端の精度を実現し、また、コンピュータのごく一部でマルチビューやCAD入力を必要とする競合する手法さえも実現している。
論文 参考訳(メタデータ) (2025-05-07T03:54:59Z) - SINGAPO: Single Image Controlled Generation of Articulated Parts in Objects [20.978091381109294]
本稿では,単一画像から音声オブジェクトを生成する手法を提案する。
提案手法は,入力画像と視覚的に一致した音声オブジェクトを生成する。
実験の結果,本手法は音声によるオブジェクト生成における最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-10-21T20:41:32Z) - FoundationPose: Unified 6D Pose Estimation and Tracking of Novel Objects [55.77542145604758]
FoundationPoseは、6Dオブジェクトのポーズ推定と追跡のための統合基盤モデルである。
我々のアプローチは、微調整なしで、テスト時に新しいオブジェクトに即座に適用できる。
論文 参考訳(メタデータ) (2023-12-13T18:28:09Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - ELLIPSDF: Joint Object Pose and Shape Optimization with a Bi-level
Ellipsoid and Signed Distance Function Description [9.734266860544663]
本稿では,関節オブジェクトのポーズと形状最適化のための表現的かつコンパクトなモデルを提案する。
多視点RGB-Dカメラ観測からオブジェクトレベルのマップを推論する。
提案手法は,大規模実世界のScanNetデータセットを用いて評価し,最先端の手法と比較する。
論文 参考訳(メタデータ) (2021-08-01T03:07:31Z) - Object-Centric Image Generation from Layouts [93.10217725729468]
複数のオブジェクトを持つ複雑なシーンを生成するレイアウト・ツー・イメージ生成法を開発した。
本手法は,シーン内のオブジェクト間の空間的関係の表現を学習し,レイアウトの忠実度の向上につながる。
本稿では,Fr'echet Inception Distanceのオブジェクト中心適応であるSceneFIDを紹介する。
論文 参考訳(メタデータ) (2020-03-16T21:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。