論文の概要: You Only Look at One: Category-Level Object Representations for Pose
Estimation From a Single Example
- arxiv url: http://arxiv.org/abs/2305.12626v1
- Date: Mon, 22 May 2023 01:32:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:05:48.719903
- Title: You Only Look at One: Category-Level Object Representations for Pose
Estimation From a Single Example
- Title(参考訳): たった1つしか見ない:カテゴリーレベルオブジェクト表現による1つの例からのポーズ推定
- Authors: Walter Goodwin, Ioannis Havoutis, Ingmar Posner
- Abstract要約: 所望のカテゴリから1つのオブジェクトだけを検査してカテゴリレベルのポーズ推定を行う手法を提案する。
本稿では,RGBDセンサを搭載したロボットマニピュレータを用いて,新しい物体のオンライン6次元ポーズ推定を行う。
- 参考スコア(独自算出の注目度): 26.866356430469757
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In order to meaningfully interact with the world, robot manipulators must be
able to interpret objects they encounter. A critical aspect of this
interpretation is pose estimation: inferring quantities that describe the
position and orientation of an object in 3D space. Most existing approaches to
pose estimation make limiting assumptions, often working only for specific,
known object instances, or at best generalising to an object category using
large pose-labelled datasets. In this work, we present a method for achieving
category-level pose estimation by inspection of just a single object from a
desired category. We show that we can subsequently perform accurate pose
estimation for unseen objects from an inspected category, and considerably
outperform prior work by exploiting multi-view correspondences. We demonstrate
that our method runs in real-time, enabling a robot manipulator equipped with
an RGBD sensor to perform online 6D pose estimation for novel objects. Finally,
we showcase our method in a continual learning setting, with a robot able to
determine whether objects belong to known categories, and if not, use active
perception to produce a one-shot category representation for subsequent pose
estimation.
- Abstract(参考訳): ロボットマニピュレータは、世界と有意義に対話するために、遭遇する物体を解釈しなくてはならない。
この解釈の重要な側面はポーズ推定である: 3次元空間における物体の位置と向きを記述する量を推測する。
ポーズ推定の既存のアプローチのほとんどは、特定の既知のオブジェクトインスタンスのみにのみ動作する、あるいは大きなポーズラベル付きデータセットを使用してオブジェクトカテゴリに最善の一般化を行うという、仮定を制限している。
本研究では,所望のカテゴリから1つのオブジェクトだけを検査することで,カテゴリレベルのポーズ推定を実現する手法を提案する。
検査されたカテゴリから未知のオブジェクトの正確なポーズ推定を行うことができ、マルチビュー対応を利用して先行作業よりもかなり優れていることを示す。
本手法は,rgbdセンサを搭載したロボットマニピュレータが,新たな物体に対してオンライン6次元ポーズ推定を行うことで,リアルタイムに動作できることを実証する。
最後に,対象が既知のカテゴリに属しているかどうかをロボットが判断し,そうでなければ,アクティブな認識を用いて,後続のポーズ推定のための一発のカテゴリ表現を生成する。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Object-centric Video Representation for Long-term Action Anticipation [33.115854386196126]
主な動機は、オブジェクトが人間とオブジェクトの相互作用を認識し予測するための重要な手がかりを提供することである。
我々は、視覚言語事前学習モデルを利用して、オブジェクト中心のビデオ表現を構築することを提案する。
人間と物体の相互作用を認識し予測するために、Transformerベースのニューラルアーキテクチャを用いる。
論文 参考訳(メタデータ) (2023-10-31T22:54:31Z) - 3D-Aware Hypothesis & Verification for Generalizable Relative Object
Pose Estimation [69.73691477825079]
一般化可能なオブジェクトポーズ推定の問題に対処する新しい仮説検証フレームワークを提案する。
信頼性を計測するために,2つの入力画像から学習した3次元オブジェクト表現に3次元変換を明示的に適用する3D認識検証を導入する。
論文 参考訳(メタデータ) (2023-10-05T13:34:07Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Continuous close-range 3D object pose estimation [1.4502611532302039]
視覚に基づく3Dポーズ推定は、固定位置に配置されない可能性のあるオブジェクトを正確に扱う必要がある。
本稿では,勾配近似粒子フィルタを用いた3次元ポーズ推定手法を提案する。
これにより、タスク実行中にこの手法をオンラインに適用して、貴重なサイクル時間を節約することができる。
論文 参考訳(メタデータ) (2020-10-02T07:48:17Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。