論文の概要: GP3D: Generalized Pose Estimation in 3D Point Clouds: A case study on
bin picking
- arxiv url: http://arxiv.org/abs/2303.16102v1
- Date: Tue, 28 Mar 2023 16:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 14:33:05.966912
- Title: GP3D: Generalized Pose Estimation in 3D Point Clouds: A case study on
bin picking
- Title(参考訳): GP3D:3次元点雲における一般電位推定:ビンピッキングの事例研究
- Authors: Frederik Hagelskj{\ae}r
- Abstract要約: GP3Dは3次元点雲における一般化されたポーズ推定のための新しいネットワークである。
本稿では,リトレーニングを必要としない新しいオブジェクトに対して,シナリオ固有のポーズ推定手法を提案する。
ネットワークが新しいオブジェクトを正確に予測できることを実証し、トレーニングされたクラスの外でネットワークが実行できることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present GP3D, a novel network for generalized pose
estimation in 3D point clouds. The method generalizes to new objects by using
both the scene point cloud and the object point cloud with keypoint indexes as
input. The network is trained to match the object keypoints to scene points. To
address the pose estimation of novel objects we also present a new approach for
training pose estimation. The typical solution is a single model trained for
pose estimation of a specific object in any scenario. This has several
drawbacks: training a model for each object is time-consuming, energy
consuming, and by excluding the scenario information the task becomes more
difficult. In this paper, we present the opposite solution; a scenario-specific
pose estimation method for novel objects that do not require retraining. The
network is trained on 1500 objects and is able to learn a generalized solution.
We demonstrate that the network is able to correctly predict novel objects, and
demonstrate the ability of the network to perform outside of the trained class.
We believe that the demonstrated method is a valuable solution for many
real-world scenarios. Code and trained network will be made available after
publication.
- Abstract(参考訳): 本稿では,3次元点雲における一般化ポーズ推定のための新しいネットワークgp3dを提案する。
このメソッドは、シーンポイントクラウドと、キーポイントインデックスを入力としてオブジェクトポイントクラウドの両方を使用して、新しいオブジェクトに一般化する。
ネットワークは、オブジェクトのキーポイントをシーンポイントにマッチするように訓練される。
新規なオブジェクトのポーズ推定に対処するために,ポーズ推定をトレーニングするための新しいアプローチを提案する。
典型的な解決策は、任意のシナリオにおける特定のオブジェクトのポーズ推定のために訓練された単一のモデルである。
それぞれのオブジェクトに対するモデルのトレーニングには時間が必要で、エネルギーを消費し、シナリオ情報を除外することで、タスクはより難しくなります。
本稿では,リトレーニングを必要としない新しいオブジェクトに対して,シナリオ固有のポーズ推定手法を提案する。
このネットワークは1500のオブジェクトで訓練され、一般化されたソリューションを学習することができる。
ネットワークが新しいオブジェクトを正確に予測できることを実証し、トレーニングされたクラスの外でネットワークが実行できることを実証する。
実証された手法は多くの実世界のシナリオに有用なソリューションであると考えている。
コードとトレーニングされたネットワークは、公開後に利用可能になる。
関連論文リスト
- ZeroPose: CAD-Prompted Zero-shot Object 6D Pose Estimation in Cluttered Scenes [19.993163470302097]
ZeroPoseは、Discovery-Orientation-Registration (DOR)推論パイプラインに従ってポーズ推定を行う、新しいフレームワークである。
モデルの再トレーニングを必要とせずに、新しいオブジェクトに一般化する。
オブジェクト固有のトレーニング手法と同等の性能を達成し、50倍の推論速度向上で最先端のゼロショット法より優れている。
論文 参考訳(メタデータ) (2023-05-29T07:54:04Z) - Generalizable Pose Estimation Using Implicit Scene Representations [4.124185654280966]
6-DoFのポーズ推定は、ロボット操作パイプラインの重要なコンポーネントである。
本稿では,異なるポーズで表現できる十分な情報を含むモデルを用いたポーズ推定の一般化能力について論じる。
最終評価では,既存手法と比較して推論性能と速度が大幅に向上した。
論文 参考訳(メタデータ) (2023-05-26T20:42:52Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - OnePose++: Keypoint-Free One-Shot Object Pose Estimation without CAD
Models [51.68715543630427]
OnePoseは繰り返し可能なイメージキーポイントの検出に依存しているので、低テクスチャオブジェクトで失敗する傾向がある。
繰り返し可能なキーポイント検出の必要性を取り除くために,キーポイントフリーポーズ推定パイプラインを提案する。
2D-3Dマッチングネットワークは、クエリ画像と再構成されたポイントクラウドモデルとの間の2D-3D対応を直接確立する。
論文 参考訳(メタデータ) (2023-01-18T17:47:13Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - ZePHyR: Zero-shot Pose Hypothesis Rating [36.52070583343388]
本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2021-04-28T01:48:39Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。