論文の概要: TransGrasp: Grasp Pose Estimation of a Category of Objects by
Transferring Grasps from Only One Labeled Instance
- arxiv url: http://arxiv.org/abs/2207.07861v1
- Date: Sat, 16 Jul 2022 07:27:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-19 18:16:17.240260
- Title: TransGrasp: Grasp Pose Estimation of a Category of Objects by
Transferring Grasps from Only One Labeled Instance
- Title(参考訳): TransGrasp: 1つのラベル付きインスタンスからのグラフ転送によるオブジェクトのカテゴリのグラフポス推定
- Authors: Hongtao Wen, Jianhang Yan, Wanli Peng, Yi Sun
- Abstract要約: カテゴリーレベルのグリップポーズ推定手法であるTransGraspを提案する。
我々は,物体の形状対応に基づいて,物体のカテゴリ間でのグリップポーズ転送を行う。
提案手法の有効性を実験により実証した。
- 参考スコア(独自算出の注目度): 8.862383914128793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasp pose estimation is an important issue for robots to interact with the
real world. However, most of existing methods require exact 3D object models
available beforehand or a large amount of grasp annotations for training. To
avoid these problems, we propose TransGrasp, a category-level grasp pose
estimation method that predicts grasp poses of a category of objects by
labeling only one object instance. Specifically, we perform grasp pose transfer
across a category of objects based on their shape correspondences and propose a
grasp pose refinement module to further fine-tune grasp pose of grippers so as
to ensure successful grasps. Experiments demonstrate the effectiveness of our
method on achieving high-quality grasps with the transferred grasp poses. Our
code is available at https://github.com/yanjh97/TransGrasp.
- Abstract(参考訳): 把持姿勢推定は、ロボットが現実世界と対話する上で重要な課題である。
しかし、既存のメソッドのほとんどは、事前に利用可能な正確な3dオブジェクトモデルや、トレーニングのための大量のgrabアノテーションを必要とする。
これらの問題を回避するために,1つのオブジェクトインスタンスのみをラベル付けすることにより,対象のカテゴリの把持ポーズを予測するカテゴリレベルの把持ポーズ推定手法であるtransgraspを提案する。
具体的には,その形状対応に基づいて対象のカテゴリをまたいだ把持姿勢伝達を行い,把持者の把持姿勢をさらに微調整する把持姿勢改善モジュールを提案する。
実験は, 移動把持ポーズを用いた高品質把持を実現するための手法の有効性を示す。
私たちのコードはhttps://github.com/yanjh97/transgraspで利用可能です。
関連論文リスト
- Learning a Category-level Object Pose Estimator without Pose Annotations [37.03715008347576]
ポーズアノテーションを使わずにカテゴリレベルの3Dオブジェクトのポーズ推定を学習することを提案する。
手動でアノテートされた画像を使用する代わりに、拡散モデルを利用して、制御されたポーズ差の下で一連の画像を生成する。
提案手法は,単一ショット設定からカテゴリレベルのオブジェクトポーズ推定を行う能力を有することを示す。
論文 参考訳(メタデータ) (2024-04-08T15:59:29Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - You Only Look at One: Category-Level Object Representations for Pose
Estimation From a Single Example [26.866356430469757]
所望のカテゴリから1つのオブジェクトだけを検査してカテゴリレベルのポーズ推定を行う手法を提案する。
本稿では,RGBDセンサを搭載したロボットマニピュレータを用いて,新しい物体のオンライン6次元ポーズ推定を行う。
論文 参考訳(メタデータ) (2023-05-22T01:32:24Z) - Self-Supervised Instance Segmentation by Grasping [84.2469669256257]
我々は、画像の前後から把握対象をセグメント化するためのグリップセグメンテーションモデルを学習する。
セグメント化されたオブジェクトを使用して、元のシーンからオブジェクトを"カット"し、それらを新しいシーンに"ペースト"することで、インスタンスの監視を生成する。
本稿では,従来の画像サブトラクション手法と比較して,グリップセグメント化モデルにより,グリップオブジェクトをセグメント化する場合の誤差が5倍になることを示す。
論文 参考訳(メタデータ) (2023-05-10T16:51:36Z) - ShapeShift: Superquadric-based Object Pose Estimation for Robotic
Grasping [85.38689479346276]
現在の技術は参照3Dオブジェクトに大きく依存しており、その一般化性を制限し、新しいオブジェクトカテゴリに拡張するのにコストがかかる。
本稿では,オブジェクトに適合するプリミティブな形状に対してオブジェクトのポーズを予測する,オブジェクトのポーズ推定のためのスーパークワッドリックベースのフレームワークであるShapeShiftを提案する。
論文 参考訳(メタデータ) (2023-04-10T20:55:41Z) - PoseMatcher: One-shot 6D Object Pose Estimation by Deep Feature Matching [51.142988196855484]
本稿では,PoseMatcherを提案する。
3ビューシステムに基づくオブジェクトと画像のマッチングのための新しいトレーニングパイプラインを作成します。
PoseMatcherは、画像とポイントクラウドの異なる入力モダリティに対応できるように、IO-Layerを導入します。
論文 参考訳(メタデータ) (2023-04-03T21:14:59Z) - NOPE: Novel Object Pose Estimation from a Single Image [67.11073133072527]
本稿では,新しいオブジェクトの1つのイメージを入力として取り込んで,オブジェクトの3Dモデルに関する事前知識を必要とせずに,新しいイメージにおけるオブジェクトの相対的なポーズを予測するアプローチを提案する。
我々は、オブジェクトを取り巻く視点に対する識別的埋め込みを直接予測するモデルを訓練することで、これを実現する。
この予測は単純なU-Netアーキテクチャを用いて行われ、要求されたポーズに注意を向け、条件を定め、非常に高速な推論をもたらす。
論文 参考訳(メタデータ) (2023-03-23T18:55:43Z) - Zero-Shot Category-Level Object Pose Estimation [24.822189326540105]
ゼロショット方式で新しい対象カテゴリーのポーズを推定する問題に取り組む。
これは、ポーズラベル付きデータセットやカテゴリ固有のCADモデルの必要性を取り除くことで、既存の文献の多くを拡張します。
本手法は平均回転精度を30度で6倍改善する。
論文 参考訳(メタデータ) (2022-04-07T17:58:39Z) - CPPF: Towards Robust Category-Level 9D Pose Estimation in the Wild [45.93626858034774]
カテゴリーレベルのPPF投票法は、野生における正確で堅牢で一般化可能な9Dポーズ推定を実現する。
ノイズの多い点対のサンプルを排除し、個体群から最終的な予測を生成するために、新しい粗大な投票アルゴリズムを提案する。
我々の手法は実世界のトレーニングデータと同等である。
論文 参考訳(メタデータ) (2022-03-07T01:36:22Z) - PoseContrast: Class-Agnostic Object Viewpoint Estimation in the Wild
with Pose-Aware Contrastive Learning [23.608940131120637]
3次元形状の知識を持たず,クラス非依存な3次元物体ポーズ推定の課題を考察する。
このアイデアは、目に見えないクラスのポーズを推定するために、観測されたクラスで学んだ機能を利用していますが、同様のジオメトリと正規フレームを観測されたクラスと共有します。
追加形状情報を使用する方法や検出された境界ボックスを使用する場合を含め,最先端の結果を報告する。
論文 参考訳(メタデータ) (2021-05-12T13:21:24Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。