論文の概要: USEEK: Unsupervised SE(3)-Equivariant 3D Keypoints for Generalizable
Manipulation
- arxiv url: http://arxiv.org/abs/2209.13864v1
- Date: Wed, 28 Sep 2022 06:42:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 18:08:17.658115
- Title: USEEK: Unsupervised SE(3)-Equivariant 3D Keypoints for Generalizable
Manipulation
- Title(参考訳): USEEK:unsupervised SE(3)-equivariant 3D Keypoints for Generalizable Manipulation
- Authors: Zhengrong Xue, Zhecheng Yuan, Jiashun Wang, Xueqian Wang, Yang Gao,
Huazhe Xu
- Abstract要約: U.S.EEKは、カテゴリー内のインスタンス間のアライメントを楽しむ、教師なしSE(3)-同変キーポイント法である。
UEEKを手にすると、ロボットはカテゴリレベルのタスク関連オブジェクトフレームを効率的かつ説明可能な方法で推論することができる。
- 参考スコア(独自算出の注目度): 19.423310410631085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can a robot manipulate intra-category unseen objects in arbitrary poses with
the help of a mere demonstration of grasping pose on a single object instance?
In this paper, we try to address this intriguing challenge by using USEEK, an
unsupervised SE(3)-equivariant keypoints method that enjoys alignment across
instances in a category, to perform generalizable manipulation. USEEK follows a
teacher-student structure to decouple the unsupervised keypoint discovery and
SE(3)-equivariant keypoint detection. With USEEK in hand, the robot can infer
the category-level task-relevant object frames in an efficient and explainable
manner, enabling manipulation of any intra-category objects from and to any
poses. Through extensive experiments, we demonstrate that the keypoints
produced by USEEK possess rich semantics, thus successfully transferring the
functional knowledge from the demonstration object to the novel ones. Compared
with other object representations for manipulation, USEEK is more adaptive in
the face of large intra-category shape variance, more robust with limited
demonstrations, and more efficient at inference time.
- Abstract(参考訳): ロボットは、一つのオブジェクトのインスタンスで、ただの把持ポーズのデモンストレーションで、任意のポーズでカテゴリ内見えないオブジェクトを操作できるだろうか?
本稿では、カテゴリ内のインスタンス間のアライメントを享受する教師なしSE(3)-equivariant keypoints法であるUSEEKを用いて、一般化可能な操作を行うことにより、この興味深い課題に対処する。
UEEKは教師なしのキーポイント発見とSE(3)-同変キーポイント検出を分離するために教師/学生構造に従う。
useekを使えば、ロボットはカテゴリーレベルのタスク関連オブジェクトフレームを効率的かつ説明可能な方法で推論でき、あらゆるカテゴリー内オブジェクトを任意のポーズから操作できる。
広範にわたる実験を通して,USEEKが生成するキーポイントがリッチセマンティクスを持っていることを実証し,その機能的知識を実証対象から新しいものへ伝達することに成功した。
操作対象の他の表現と比較して、USEEKはカテゴリ内形状のばらつきの大きな面においてより適応的であり、限られたデモンストレーションでより堅牢であり、推論時により効率的である。
関連論文リスト
- Keypoint Abstraction using Large Models for Object-Relative Imitation Learning [78.92043196054071]
多様なタスクや環境にまたがる新しいオブジェクト構成やインスタンスへの一般化は、ロボット工学において重要な課題である。
キーポイントに基づく表現は、本質的なオブジェクトキャプチャ機能のための簡潔な表現として有効であることが証明されている。
本稿では,タスク関連およびクロスインスタンス整合性キーポイントの自動生成に,大規模な事前学習型視覚言語モデルを活用するフレームワークであるKALMを提案する。
論文 参考訳(メタデータ) (2024-10-30T17:37:31Z) - Kinematic-aware Prompting for Generalizable Articulated Object
Manipulation with LLMs [53.66070434419739]
汎用的なオブジェクト操作は、ホームアシストロボットにとって不可欠である。
本稿では,物体のキネマティックな知識を持つ大規模言語モデルに対して,低レベル動作経路を生成するキネマティック・アウェア・プロンプト・フレームワークを提案する。
我々のフレームワークは8つのカテゴリで従来の手法よりも優れており、8つの未確認対象カテゴリに対して強力なゼロショット能力を示している。
論文 参考訳(メタデータ) (2023-11-06T03:26:41Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - You Only Look at One: Category-Level Object Representations for Pose
Estimation From a Single Example [26.866356430469757]
所望のカテゴリから1つのオブジェクトだけを検査してカテゴリレベルのポーズ推定を行う手法を提案する。
本稿では,RGBDセンサを搭載したロボットマニピュレータを用いて,新しい物体のオンライン6次元ポーズ推定を行う。
論文 参考訳(メタデータ) (2023-05-22T01:32:24Z) - 3D-QueryIS: A Query-based Framework for 3D Instance Segmentation [74.6998931386331]
従来の3Dインスタンスセグメンテーションの方法は、しばしばタスク間の依存関係と堅牢性の欠如の傾向を維持する。
本稿では,3D-QueryISと呼ばれる新しい問合せ方式を提案する。
私たちの3D-QueryISは、タスク間の依存関係による累積エラーから解放されています。
論文 参考訳(メタデータ) (2022-11-17T07:04:53Z) - You Only Demonstrate Once: Category-Level Manipulation from Single
Visual Demonstration [9.245605426105922]
この研究は、新しいカテゴリーレベルの操作フレームワークを提案する。
オブジェクト中心のカテゴリーレベルの表現とモデルなしの6 DoFモーショントラッキングを使用する。
実験は、高精度な組み立てにおける様々な産業課題において、その効果を実証している。
論文 参考訳(メタデータ) (2022-01-30T03:59:14Z) - Neural Descriptor Fields: SE(3)-Equivariant Object Representations for
Manipulation [75.83319382105894]
対象と対象の相対的なポーズを符号化するオブジェクト表現であるニューラル・ディスクリプタ・フィールド(NDF)を提案する。
NDFは、専門家ラベル付きキーポイントに依存しない3D自動エンコーディングタスクを通じて、自己教師型で訓練される。
我々のパフォーマンスは、オブジェクトインスタンスと6-DoFオブジェクトの両方のポーズを一般化し、2Dディスクリプタに依存する最近のベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2021-12-09T18:57:15Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - A Deep Learning Approach to Object Affordance Segmentation [31.221897360610114]
我々は,ビデオと静的画像の両方において,画素単位の価格ラベルを推定するオートエンコーダを設計する。
本モデルは,ソフトアテンション機構を用いて,オブジェクトラベルやバウンディングボックスの必要性を克服する。
本モデルは,SOR3D-AFF上での強い教師付き手法と比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-18T15:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。