論文の概要: KeyMatchNet: Zero-Shot Pose Estimation in 3D Point Clouds by Generalized
Keypoint Matching
- arxiv url: http://arxiv.org/abs/2303.16102v2
- Date: Tue, 26 Sep 2023 11:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 18:06:47.127649
- Title: KeyMatchNet: Zero-Shot Pose Estimation in 3D Point Clouds by Generalized
Keypoint Matching
- Title(参考訳): KeyMatchNet: 一般化キーポイントマッチングによる3次元点雲のゼロショットポス推定
- Authors: Frederik Hagelskj{\ae}r and Rasmus Laurvig Haugaard
- Abstract要約: KeyMatchNetは、3Dポイントクラウドにおけるゼロショットポーズ推定のための新しいネットワークである。
この方法は、シーンポイントクラウドを入力としてだけでなく、オブジェクトポイントクラウドを用いて、新しいオブジェクトに一般化する。
- 参考スコア(独自算出の注目度): 5.710971447109951
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present KeyMatchNet, a novel network for zero-shot pose
estimation in 3D point clouds. The network is trained to match object keypoints
with scene-points, and these matches are then used for pose estimation. The
method generalizes to new objects by using not only the scene point cloud as
input but also the object point cloud. This is in contrast with conventional
methods where object features are stored in network weights. By having a
generalized network we avoid the need for training new models for novel
objects, thus significantly decreasing the computational requirements of the
method.
However, as a result of the complexity, zero-shot pose estimation methods
generally have lower performance than networks trained for a single object. To
address this, we reduce the complexity of the task by including the scenario
information during training. This is generally not feasible as collecting real
data for new tasks increases the cost drastically. But, in the zero-shot pose
estimation task, no retraining is needed for new objects. The expensive data
collection can thus be performed once, and the scenario information is retained
in the network weights.
The network is trained on 1,500 objects and is tested on unseen objects. We
demonstrate that the trained network can accurately estimate poses for novel
objects and demonstrate the ability of the network to perform outside of the
trained class. We believe that the presented method is valuable for many
real-world scenarios. Code, trained network, and dataset will be made available
at publication.
- Abstract(参考訳): 本稿では3次元点雲におけるゼロショットポーズ推定のための新しいネットワークであるKeyMatchNetを提案する。
ネットワークはオブジェクトのキーポイントとシーンポイントをマッチングするように訓練され、これらのマッチはポーズ推定に使用される。
このメソッドは、シーンポイントクラウドを入力としてだけでなく、オブジェクトポイントクラウドも使うことで、新しいオブジェクトに一般化する。
これは、オブジェクトの特徴をネットワーク重みに格納する従来の方法とは対照的である。
一般化されたネットワークを持つことで、新しいオブジェクトのための新しいモデルのトレーニングの必要性を回避し、メソッドの計算要件を大幅に削減する。
しかしながら、複雑さの結果、ゼロショットポーズ推定手法は一般に、単一のオブジェクトに対してトレーニングされたネットワークよりも低いパフォーマンスを持つ。
これに対処するため、トレーニング中にシナリオ情報を含めることで、タスクの複雑さを低減します。
これは一般的には実現不可能であり、新しいタスクの実際のデータ収集はコストを大幅に増加させる。
しかし、ゼロショットポーズ推定タスクでは、新しいオブジェクトに対して再トレーニングは必要ない。
これにより、高価なデータ収集を一度行うことができ、シナリオ情報はネットワーク重みに保持される。
ネットワークは1500のオブジェクトで訓練され、見えないオブジェクトでテストされる。
訓練されたネットワークは、新しいオブジェクトのポーズを正確に推定し、トレーニングされたクラス外でネットワークが実行する能力を示す。
提案手法は多くの実世界のシナリオに有用であると考えている。
コード、トレーニングされたネットワーク、データセットは公開時に利用可能になる。
関連論文リスト
- ZeroPose: CAD-Prompted Zero-shot Object 6D Pose Estimation in Cluttered Scenes [19.993163470302097]
ZeroPoseは、Discovery-Orientation-Registration (DOR)推論パイプラインに従ってポーズ推定を行う、新しいフレームワークである。
モデルの再トレーニングを必要とせずに、新しいオブジェクトに一般化する。
オブジェクト固有のトレーニング手法と同等の性能を達成し、50倍の推論速度向上で最先端のゼロショット法より優れている。
論文 参考訳(メタデータ) (2023-05-29T07:54:04Z) - Generalizable Pose Estimation Using Implicit Scene Representations [4.124185654280966]
6-DoFのポーズ推定は、ロボット操作パイプラインの重要なコンポーネントである。
本稿では,異なるポーズで表現できる十分な情報を含むモデルを用いたポーズ推定の一般化能力について論じる。
最終評価では,既存手法と比較して推論性能と速度が大幅に向上した。
論文 参考訳(メタデータ) (2023-05-26T20:42:52Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - OnePose++: Keypoint-Free One-Shot Object Pose Estimation without CAD
Models [51.68715543630427]
OnePoseは繰り返し可能なイメージキーポイントの検出に依存しているので、低テクスチャオブジェクトで失敗する傾向がある。
繰り返し可能なキーポイント検出の必要性を取り除くために,キーポイントフリーポーズ推定パイプラインを提案する。
2D-3Dマッチングネットワークは、クエリ画像と再構成されたポイントクラウドモデルとの間の2D-3D対応を直接確立する。
論文 参考訳(メタデータ) (2023-01-18T17:47:13Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。