論文の概要: Object 6D pose estimation meets zero-shot learning
- arxiv url: http://arxiv.org/abs/2312.00947v1
- Date: Fri, 1 Dec 2023 22:00:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 20:04:15.301859
- Title: Object 6D pose estimation meets zero-shot learning
- Title(参考訳): ゼロショット学習を満たしたオブジェクト6dポーズ推定
- Authors: Andrea Caraffa, Davide Boscaini, Amir Hamza, Fabio Poiesi
- Abstract要約: 本稿では,事前学習された幾何学的・視覚的基礎モデルの寄与を解消する最初の手法を提案する。
我々はPoMZと命名し、ポイントクラウドデータから学習した幾何学的記述子と大規模Web画像から学習した視覚的特徴を組み合わせる。
PoMZ は BOP ベンチマークでタスク 4: 見えないオブジェクトの6D ローカライゼーションのカテゴリで第1位である。
- 参考スコア(独自算出の注目度): 6.286106048324139
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object 6D pose estimation methods can achieve high accuracy when trained and
tested on the same objects. However, estimating the pose of objects that are
absent at training time is still a challenge. In this work, we advance the
state-of-the-art in zero-shot object 6D pose estimation by proposing the first
method that fuses the contribution of pre-trained geometric and vision
foundation models. Unlike state-of-the-art approaches that train their pipeline
on data specifically crafted for the 6D pose estimation task, our method does
not require task-specific finetuning. Instead, our method, which we name PoMZ,
combines geometric descriptors learned from point cloud data with visual
features learned from large-scale web images to produce distinctive 3D
point-level descriptors. By applying an off-the-shelf registration algorithm,
like RANSAC, PoMZ outperforms all state-of-the-art zero-shot object 6D pose
estimation approaches. We extensively evaluate PoMZ across the seven core
datasets of the BOP Benchmark, encompassing over a hundred objects and 20
thousand images captured in diverse scenarios. PoMZ ranks first in the BOP
Benchmark under the category Task 4: 6D localization of unseen objects. We will
release the source code publicly.
- Abstract(参考訳): オブジェクト6dポーズ推定手法は、同じオブジェクト上でトレーニングとテストを行う場合に高い精度を達成することができる。
しかし,訓練時間に不足している物体の姿勢推定は依然として課題である。
本研究では,事前学習された幾何学モデルと視覚基礎モデルの寄与を融合した最初の手法を提案することにより,ゼロショット物体6dポーズ推定の最先端を前進させる。
6次元ポーズ推定タスク用に特別に作られたデータに基づいてパイプラインをトレーニングする最先端のアプローチとは異なり、この方法はタスク固有の微調整を必要としない。
代わりに、我々がPoMZと呼ぶ手法は、ポイントクラウドデータから学習した幾何学的記述子と大規模ウェブ画像から学習した視覚的特徴を組み合わせることで、特異な3Dポイントレベルの記述子を生成する。
RANSACのような既製の登録アルゴリズムを適用することで、PoMZは最先端のゼロショットオブジェクト6Dのポーズ推定アプローチよりも優れている。
我々は、BOPベンチマークの7つのコアデータセットにまたがるPoMZを広範囲に評価し、100以上のオブジェクトと2000万のイメージを多様なシナリオでキャプチャした。
PoMZ は BOP ベンチマークでタスク 4: 見えないオブジェクトの6D ローカライゼーションのカテゴリで第1位である。
ソースコードを公開します。
関連論文リスト
- Pseudo Flow Consistency for Self-Supervised 6D Object Pose Estimation [14.469317161361202]
補助情報なしで純粋なRGB画像で訓練できる6次元オブジェクトポーズ推定法を提案する。
提案手法を3つの挑戦的データセット上で評価し,最先端の自己管理手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-19T13:52:18Z) - 3D Neural Embedding Likelihood: Probabilistic Inverse Graphics for
Robust 6D Pose Estimation [50.15926681475939]
逆グラフィックスは2次元画像から3次元シーン構造を推論することを目的としている。
確率モデルを導入し,不確実性を定量化し,6次元ポーズ推定タスクにおけるロバスト性を実現する。
3DNELは、RGBから学んだニューラルネットワークの埋め込みと深度情報を組み合わせることで、RGB-D画像からのsim-to-real 6Dオブジェクトのポーズ推定の堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-02-07T20:48:35Z) - Self-Supervised Geometric Correspondence for Category-Level 6D Object
Pose Estimation in the Wild [47.80637472803838]
本研究では,大規模現実世界のオブジェクトビデオを直接学習し,カテゴリーレベルの6Dポーズ推定を行う自己教師型学習手法を提案する。
本フレームワークは,対象カテゴリの正準3次元形状を再構成し,入力画像と正準形状との密接な対応を表面埋め込みにより学習する。
意外なことに、人間のアノテーションやシミュレータを使わずに、従来の教師付きあるいは半教師付き画像の半教師付き手法よりも、オンパーまたはそれ以上のパフォーマンスを達成できる。
論文 参考訳(メタデータ) (2022-10-13T17:19:22Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Coupled Iterative Refinement for 6D Multi-Object Pose Estimation [64.7198752089041]
既知の3DオブジェクトのセットとRGBまたはRGB-Dの入力画像から、各オブジェクトの6Dポーズを検出して推定する。
我々のアプローチは、ポーズと対応を緊密に結合した方法で反復的に洗練し、アウトレーヤを動的に除去して精度を向上させる。
論文 参考訳(メタデータ) (2022-04-26T18:00:08Z) - Weakly Supervised Learning of Keypoints for 6D Object Pose Estimation [73.40404343241782]
2次元キーポイント検出に基づく弱教師付き6次元オブジェクトポーズ推定手法を提案する。
提案手法は,最先端の完全教師付きアプローチと同等の性能を実現する。
論文 参考訳(メタデータ) (2022-03-07T16:23:47Z) - SHREC 2020 track: 6D Object Pose Estimation [26.4781238445338]
6Dのポーズ推定は、拡張現実、仮想現実、ロボット操作、視覚ナビゲーションに不可欠である。
異なるポーズ推定法は特徴表現やシーン内容によって異なる長所と短所を持つ。
データ駆動方式で6Dポーズを推定する既存の3Dデータセットには、視野角と解像度が制限されている。
論文 参考訳(メタデータ) (2020-10-19T09:45:42Z) - Single Shot 6D Object Pose Estimation [11.37625512264302]
深度画像に基づく剛体物体の6次元オブジェクトポーズ推定のための新しい単一ショット手法を提案する。
完全な畳み込みニューラルネットワークを用い、3次元入力データを空間的に離散化し、ポーズ推定を回帰タスクとみなす。
GPU上の65fpsでは、Object Pose Network(OP-Net)は非常に高速で、エンドツーエンドに最適化され、画像内の複数のオブジェクトの6Dポーズを同時に推定する。
論文 参考訳(メタデータ) (2020-04-27T11:59:11Z) - CPS++: Improving Class-level 6D Pose and Shape Estimation From Monocular
Images With Self-Supervised Learning [74.53664270194643]
現代のモノクロ6Dポーズ推定手法は、少数のオブジェクトインスタンスにしか対応できない。
そこで本研究では,計量形状検索と組み合わせて,クラスレベルのモノクル6次元ポーズ推定手法を提案する。
1枚のRGB画像から正確な6Dポーズとメートル法形状を抽出できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-03-12T15:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。