論文の概要: ZePHyR: Zero-shot Pose Hypothesis Rating
- arxiv url: http://arxiv.org/abs/2104.13526v2
- Date: Fri, 30 Apr 2021 04:11:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 11:12:05.325301
- Title: ZePHyR: Zero-shot Pose Hypothesis Rating
- Title(参考訳): ZePHyR:ゼロショットポス仮説のレーティング
- Authors: Brian Okorn, Qiao Gu, Martial Hebert, David Held
- Abstract要約: 本稿では,ゼロショット物体の姿勢推定法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
そこで本研究では,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
- 参考スコア(独自算出の注目度): 36.52070583343388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose estimation is a basic module in many robot manipulation pipelines.
Estimating the pose of objects in the environment can be useful for grasping,
motion planning, or manipulation. However, current state-of-the-art methods for
pose estimation either rely on large annotated training sets or simulated data.
Further, the long training times for these methods prohibit quick interaction
with novel objects. To address these issues, we introduce a novel method for
zero-shot object pose estimation in clutter. Our approach uses a hypothesis
generation and scoring framework, with a focus on learning a scoring function
that generalizes to objects not used for training. We achieve zero-shot
generalization by rating hypotheses as a function of unordered point
differences. We evaluate our method on challenging datasets with both textured
and untextured objects in cluttered scenes and demonstrate that our method
significantly outperforms previous methods on this task. We also demonstrate
how our system can be used by quickly scanning and building a model of a novel
object, which can immediately be used by our method for pose estimation. Our
work allows users to estimate the pose of novel objects without requiring any
retraining. Additional information can be found on our website
https://bokorn.github.io/zephyr/
- Abstract(参考訳): ポーズ推定は多くのロボット操作パイプラインの基本モジュールである。
環境中の物体のポーズを推定することは、把握、運動計画、操作に有用である。
しかし、現在のポーズ推定手法は、大きな注釈付きトレーニングセットやシミュレーションデータに依存している。
さらに、これらの手法の長い訓練期間は、新しい物体との迅速な相互作用を禁止している。
これらの問題に対処するために,ゼロショットオブジェクトポーズ推定の新しい手法を提案する。
提案手法は仮説生成とスコアリングのフレームワークを用いて,トレーニングに使用されていないオブジェクトに一般化するスコアリング関数の学習に重点を置いている。
非順序点差の関数としてのレーティング仮説によるゼロショット一般化を実現する。
本手法は,テクスチャと非テクスチャの両方のオブジェクトを散らかした難易度の高いデータセットに対して,提案手法が従来の手法を大幅に上回ることを示す。
また,新しい物体のモデルを素早くスキャンして構築することで,本システムをどのように利用できるかを示す。
我々の研究により、ユーザーは再トレーニングを必要とせずに、新しいオブジェクトのポーズを推定できる。
詳細は私たちのWebサイトhttps://bokorn.github.io/zephyr/で確認できます。
関連論文リスト
- Good Grasps Only: A data engine for self-supervised fine-tuning of pose estimation using grasp poses for verification [0.0]
ビンピッキングのためのポーズ推定の自己教師型微調整法を提案する。
本手法により,手動ラベリングを使わずにトレーニングデータを自動的に取得できる。
私たちのパイプラインは、プロセス実行中にシステムを微調整し、学習フェーズの必要性を排除します。
論文 参考訳(メタデータ) (2024-09-17T19:26:21Z) - ZeroPose: CAD-Prompted Zero-shot Object 6D Pose Estimation in Cluttered Scenes [19.993163470302097]
ZeroPoseは、Discovery-Orientation-Registration (DOR)推論パイプラインに従ってポーズ推定を行う、新しいフレームワークである。
モデルの再トレーニングを必要とせずに、新しいオブジェクトに一般化する。
オブジェクト固有のトレーニング手法と同等の性能を達成し、50倍の推論速度向上で最先端のゼロショット法より優れている。
論文 参考訳(メタデータ) (2023-05-29T07:54:04Z) - Generalizable Pose Estimation Using Implicit Scene Representations [4.124185654280966]
6-DoFのポーズ推定は、ロボット操作パイプラインの重要なコンポーネントである。
本稿では,異なるポーズで表現できる十分な情報を含むモデルを用いたポーズ推定の一般化能力について論じる。
最終評価では,既存手法と比較して推論性能と速度が大幅に向上した。
論文 参考訳(メタデータ) (2023-05-26T20:42:52Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - KeyMatchNet: Zero-Shot Pose Estimation in 3D Point Clouds by Generalized Keypoint Matching [4.8342038441006805]
KeyMatchNetは、3Dポイントクラウドにおけるゼロショットポーズ推定のための新しいネットワークである。
本手法は深度情報のみを用いており,多くの産業用途に適用可能である。
論文 参考訳(メタデータ) (2023-03-28T16:11:31Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - LocPoseNet: Robust Location Prior for Unseen Object Pose Estimation [69.70498875887611]
LocPoseNetは、見えないオブジェクトに先立って、ロバストにロケーションを学習することができる。
提案手法は,LINEMOD と GenMOP において,既存の作業よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-29T15:21:34Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。