論文の概要: GMatch: Geometry-Constrained Feature Matching for RGB-D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2505.16144v1
- Date: Thu, 22 May 2025 02:39:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.986398
- Title: GMatch: Geometry-Constrained Feature Matching for RGB-D Object Pose Estimation
- Title(参考訳): GMatch:RGB-Dオブジェクトポス推定のための幾何制約付き特徴マッチング
- Authors: Ming Yang, Haoran Li,
- Abstract要約: GMatchは、堅牢な6DoFオブジェクトポーズ推定のための学習不要の機能マーカである。
GMatchはガイド付きインクリメンタル検索を行い、マッチングプロセス全体を通してSE(3)不変な幾何一貫性を強制する。
GMatch-SIFTは汎用的なポーズ推定パイプラインを形成し、多様なオブジェクトやシーンに対して強い解釈性と一般化を提供する。
- 参考スコア(独自算出の注目度): 8.335949758778405
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present GMatch, a learning-free feature matcher designed for robust 6DoF object pose estimation, addressing common local ambiguities in sparse feature matching. Unlike traditional methods that rely solely on descriptor similarity, GMatch performs a guided, incremental search, enforcing SE(3)-invariant geometric consistency throughout the matching process. It leverages a provably complete set of geometric features that uniquely determine 3D keypoint configurations, ensuring globally consistent correspondences without the need for training or GPU support. When combined with classical descriptors such as SIFT, GMatch-SIFT forms a general-purpose pose estimation pipeline that offers strong interpretability and generalization across diverse objects and scenes. Experiments on the HOPE dataset show that GMatch outperforms both traditional and learning-based matchers, with GMatch-SIFT achieving or surpassing the performance of instance-level pose networks. On the YCB-Video dataset, GMatch-SIFT demonstrates high accuracy and low variance on texture-rich objects. These results not only validate the effectiveness of GMatch-SIFT for object pose estimation but also highlight the broader applicability of GMatch as a general-purpose feature matcher. Code will be released upon acceptance.
- Abstract(参考訳): 我々は,頑健な6DoFオブジェクトのポーズ推定のために設計された学習不要な特徴マッチングであるGMatchを紹介し,スパース特徴マッチングにおける局所的曖昧性に対処する。
記述子類似性にのみ依存する従来の方法とは異なり、GMatchはガイド付きインクリメンタル検索を行い、SE(3)不変な幾何一貫性をマッチングプロセス全体を通して強制する。
3Dキーポイントの設定をユニークに決定し、トレーニングやGPUサポートを必要とせずに、グローバルに一貫した対応を保証する。
SIFTのような古典的な記述子と組み合わせることで、GMatch-SIFTは多種多様なオブジェクトやシーンに対して強い解釈性と一般化を提供する汎用的なポーズ推定パイプラインを形成する。
HOPEデータセットの実験では、GMatchは従来型と学習型両方のマーカよりも優れており、GMatch-SIFTはインスタンスレベルのポーズネットワークのパフォーマンスを達成または上回っている。
YCB-Videoデータセットでは、GMatch-SIFTはテクスチャリッチなオブジェクトに対して高い精度と低分散を示す。
これらの結果は、オブジェクトポーズ推定におけるGMatch-SIFTの有効性を検証するだけでなく、汎用的特徴マーカとしてのGMatchの適用性も強調する。
コードは受理時にリリースされる。
関連論文リスト
- MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - OAMatcher: An Overlapping Areas-based Network for Accurate Local Feature
Matching [9.006654114778073]
OAMatcherは、人間の動作を模倣して、密集した正確な一致を生成する、検知不要な手法である。
OAMatcherは重複する領域を予測し、効果的でクリーンなグローバルコンテキストアグリゲーションを促進する。
総合的な実験により、OAMatcherはいくつかのベンチマークで最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-02-12T03:32:45Z) - DeepMatcher: A Deep Transformer-based Network for Robust and Accurate
Local Feature Matching [9.662752427139496]
本研究では,検出器レス手法における局所的特徴マッチングの探索に基づくディープトランスフォーマーベースネットワークを提案する。
DeepMatcherは、より直感的でシンプルでマッシュアップな機能をキャプチャする。
我々は、DeepMatcherがいくつかのベンチマークで最先端の手法を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2023-01-08T07:15:09Z) - Adaptive Assignment for Geometry Aware Local Feature Matching [22.818457285745733]
検出不要な特徴マッチングアプローチは、その優れたパフォーマンスのおかげで、現在大きな注目を集めている。
本稿では,AdaMatcherについて紹介する。AdaMatcherは特徴相関と協調可視領域推定を,精巧な特徴相互作用モジュールを通じて実現する。
次に、AdaMatcherは、画像間のスケールを推定しながらパッチレベルのマッチングに適応的な割り当てを行い、最後に、スケールアライメントとサブピクセルレグレッションモジュールを通じて、コビジブルマッチングを洗練する。
論文 参考訳(メタデータ) (2022-07-18T08:22:18Z) - TransforMatcher: Match-to-Match Attention for Semantic Correspondence [48.25709192748133]
本稿では,視覚領域におけるトランスフォーマーネットワークの成功を基盤として,TransforMatcherと呼ばれる強力なセマンティック画像マッチング学習手法を提案する。
既存の畳み込みや注意に基づく対応スキームとは異なり、TransforMatcherは、正確なマッチングローカライゼーションとダイナミックリファインメントのために、グローバルなマッチングアテンションを実行する。
実験では、TransforMatcherはSPair-71k上の新しい状態を設定し、PF-PASCALデータセット上の既存のSOTAメソッドと同等に動作させる。
論文 参考訳(メタデータ) (2022-05-23T21:02:01Z) - SIFT Matching by Context Exposed [7.99536002595393]
本稿では、マッチングコンテキスト情報を利用して、ローカル画像記述子マッチングをステップアップする方法を検討する。
新しいマッチング戦略と,それぞれにブロブマッチング(blob matching)とデラウネー三角法マッチング(Delaunay Triangulation Matching, DTM)と呼ばれる新しい局所空間フィルタが考案された。
DTMは、特に非平面シーンにおいて、精度とロバストさの整合性の観点から、最先端技術よりも同等か優れている。
論文 参考訳(メタデータ) (2021-06-17T15:10:59Z) - 3D Correspondence Grouping with Compatibility Features [51.869670613445685]
本稿では,3次元対応グルーピングのための簡易かつ効果的な手法を提案する。
目的は、局所幾何学的記述子を不整合と外接点にマッチングすることによって得られる初期対応を正確に分類することである。
本稿では,不整合と不整合を表わすために,互換性特徴(CF)と呼ばれる3次元対応の表現を提案する。
論文 参考訳(メタデータ) (2020-07-21T02:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。