論文の概要: KeyMatchNet: Zero-Shot Pose Estimation in 3D Point Clouds by Generalized Keypoint Matching
- arxiv url: http://arxiv.org/abs/2303.16102v3
- Date: Thu, 29 Aug 2024 05:56:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 19:48:14.678071
- Title: KeyMatchNet: Zero-Shot Pose Estimation in 3D Point Clouds by Generalized Keypoint Matching
- Title(参考訳): KeyMatchNet: 一般化キーポイントマッチングによる3次元点雲のゼロショットポス推定
- Authors: Frederik Hagelskjær, Rasmus Laurvig Haugaard,
- Abstract要約: KeyMatchNetは、3Dポイントクラウドにおけるゼロショットポーズ推定のための新しいネットワークである。
本手法は深度情報のみを用いており,多くの産業用途に適用可能である。
- 参考スコア(独自算出の注目度): 4.8342038441006805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present KeyMatchNet, a novel network for zero-shot pose estimation in 3D point clouds. Our method uses only depth information, making it more applicable for many industrial use cases, as color information is seldom available. The network is composed of two parallel components for computing object and scene features. The features are then combined to create matches used for pose estimation. The parallel structure allows for pre-processing of the individual parts, which decreases the run-time. Using a zero-shot network allows for a very short set-up time, as it is not necessary to train models for new objects. However, as the network is not trained for the specific object, zero-shot pose estimation methods generally have lower accuracy compared with conventional methods. To address this, we reduce the complexity of the task by including the scenario information during training. This is typically not feasible as collecting real data for new tasks drastically increases the cost. However, for zero-shot pose estimation, training for new objects is not necessary and the expensive data collection can thus be performed only once. Our method is trained on 1,500 objects and is only tested on unseen objects. We demonstrate that the trained network can not only accurately estimate poses for novel objects, but also demonstrate the ability of the network on objects outside of the trained class. Test results are also shown on real data. We believe that the presented method is valuable for many real-world scenarios. Project page available at keymatchnet.github.io
- Abstract(参考訳): 本稿では,3次元点雲におけるゼロショットポーズ推定のための新しいネットワークであるKeyMatchNetを提案する。
本手法は深度情報のみを用いており,色情報はほとんど利用できないため,多くの産業用途に適用可能である。
このネットワークはオブジェクトとシーンの特徴を計算するための2つの並列コンポーネントで構成されている。
それらの機能は組み合わせて、ポーズ推定に使用されるマッチを生成する。
並列構造は個々の部品の事前処理を可能にし、実行時間を短縮する。
ゼロショットネットワークを使用することで、新しいオブジェクトのモデルをトレーニングする必要がなくなるため、非常に短いセットアップ時間が可能になる。
しかし、ネットワークは特定の対象に対して訓練されていないため、ゼロショットポーズ推定法は従来の手法に比べて精度が低いのが一般的である。
これを解決するために、トレーニング中のシナリオ情報を含めることで、タスクの複雑さを低減する。
これは通常、新しいタスクの実際のデータ収集がコストを大幅に増加させるため、実現不可能である。
しかし、ゼロショットポーズ推定では、新しいオブジェクトのトレーニングは必要ないため、高価なデータ収集は一度だけ行うことができる。
我々の手法は1500個のオブジェクトで訓練され、未確認オブジェクトでのみテストされる。
トレーニングされたネットワークは、新しいオブジェクトのポーズを正確に推定するだけでなく、トレーニングされたクラス以外のオブジェクト上でのネットワークの能力も示すことができる。
実際のデータにもテスト結果が表示される。
提案手法は多くの実世界のシナリオに有用であると考えている。
keymatchnet.github.io のプロジェクトページ
関連論文リスト
- ZeroPose: CAD-Prompted Zero-shot Object 6D Pose Estimation in Cluttered Scenes [19.993163470302097]
ZeroPoseは、Discovery-Orientation-Registration (DOR)推論パイプラインに従ってポーズ推定を行う、新しいフレームワークである。
モデルの再トレーニングを必要とせずに、新しいオブジェクトに一般化する。
オブジェクト固有のトレーニング手法と同等の性能を達成し、50倍の推論速度向上で最先端のゼロショット法より優れている。
論文 参考訳(メタデータ) (2023-05-29T07:54:04Z) - Generalizable Pose Estimation Using Implicit Scene Representations [4.124185654280966]
6-DoFのポーズ推定は、ロボット操作パイプラインの重要なコンポーネントである。
本稿では,異なるポーズで表現できる十分な情報を含むモデルを用いたポーズ推定の一般化能力について論じる。
最終評価では,既存手法と比較して推論性能と速度が大幅に向上した。
論文 参考訳(メタデータ) (2023-05-26T20:42:52Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - OnePose++: Keypoint-Free One-Shot Object Pose Estimation without CAD
Models [51.68715543630427]
OnePoseは繰り返し可能なイメージキーポイントの検出に依存しているので、低テクスチャオブジェクトで失敗する傾向がある。
繰り返し可能なキーポイント検出の必要性を取り除くために,キーポイントフリーポーズ推定パイプラインを提案する。
2D-3Dマッチングネットワークは、クエリ画像と再構成されたポイントクラウドモデルとの間の2D-3D対応を直接確立する。
論文 参考訳(メタデータ) (2023-01-18T17:47:13Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。