論文の概要: Learning Object Affordance with Contact and Grasp Generation
- arxiv url: http://arxiv.org/abs/2210.09245v1
- Date: Mon, 17 Oct 2022 16:39:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 20:48:53.182987
- Title: Learning Object Affordance with Contact and Grasp Generation
- Title(参考訳): 接触と把持生成による物体の学習
- Authors: Haoming Li, Xinzhuo Lin, Yang Zhou, Xiang Li, Jiming Chen and Qi Ye
- Abstract要約: そこで本稿では,接触と握りポーズの生成の両面から,物体の余剰理解を定式化することを提案する。
学習課題をブラックボックス戦略ではなく,2段階に分類する。
本手法は,各種メトリクスの把握に関する最先端手法よりも優れる。
- 参考スコア(独自算出の注目度): 16.154739855836347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding object affordance can help in designing better and more robust
robotic grasping. Existing work in the computer vision community formulates the
object affordance understanding as a grasping pose generation problem, which
treats the problem as a black box by learning a mapping between objects and the
distributions of possible grasping poses for the objects. On the other hand, in
the robotics community, estimating object affordance represented by contact
maps is of the most importance as localizing the positions of the possible
affordance can help the planning of grasping actions. In this paper, we propose
to formulate the object affordance understanding as both contacts and grasp
poses generation. we factorize the learning task into two sequential stages,
rather than the black-box strategy: (1) we first reason the contact maps by
allowing multi-modal contact generation; (2) assuming that grasping poses are
fully constrained given contact maps, we learn a one-to-one mapping from the
contact maps to the grasping poses. Further, we propose a penetration-aware
partial optimization from the intermediate contacts. It combines local and
global optimization for the refinement of the partial poses of the generated
grasps exhibiting penetration. Extensive validations on two public datasets
show our method outperforms state-of-the-art methods regarding grasp generation
on various metrics.
- Abstract(参考訳): オブジェクトアフォーアンスを理解することは、より良く、より堅牢なロボットハンドリングを設計するのに役立ちます。
コンピュータビジョンコミュニティにおける既存の作業は、オブジェクトの獲得可能なポーズの分布とオブジェクト間のマッピングを学習することにより、その問題をブラックボックスとして扱う、つかみポーズ生成問題としてオブジェクト余裕理解を定式化する。
一方, ロボットコミュニティでは, 接触地図で表される物価を推定することが重要であり, 可能な物価の位置の定位は, 行動把握の計画に役立てることができる。
本稿では,対象物価理解を接触とつかみポーズの生成の両方として定式化する。
学習課題をブラックボックス戦略ではなく,次の2段階に分類する:(1) マルチモーダルな接触生成を可能にすることにより,まず接触マップを推論する; (2) 把握ポーズが完全に制約されていると仮定すると,接触マップから把握ポーズへの1対1のマッピングを学習する。
さらに,中間接触からの侵入認識部分最適化を提案する。
局所的および大域的最適化を組み合わせることで、侵入を示す生成された把持の部分的ポーズを洗練する。
2つの公開データセットに対する広範囲な検証は、様々なメトリクスの把握生成に関する最先端の手法よりも優れていることを示す。
関連論文リスト
- ClickDiff: Click to Induce Semantic Contact Map for Controllable Grasp Generation with Diffusion Models [17.438429495623755]
ClickDiffは、きめ細かいセマンティックコンタクトマップを利用する制御可能な条件生成モデルである。
このフレームワーク内では、セマンティック条件付きモジュールは、きめ細かい接触情報に基づいて適切な接触マップを生成する。
提案手法の有効性を検証し,ClickDiffの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2024-07-28T02:42:29Z) - Text2HOI: Text-guided 3D Motion Generation for Hand-Object Interaction [8.253265795150401]
本稿では,3Dにおける手-物間相互作用のシーケンスを生成するための最初のテキスト誘導作業について紹介する。
接触生成のために、VAEベースのネットワークはテキストとオブジェクトメッシュを入力として、手の表面とオブジェクトとの間の接触の確率を生成する。
運動生成のために、トランスフォーマーベースの拡散モデルは、この3Dコンタクトマップを、物理的に可塑性な手オブジェクトの動きを生成するための強力な先行手段として利用する。
論文 参考訳(メタデータ) (2024-03-31T04:56:30Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - S$^2$Contact: Graph-based Network for 3D Hand-Object Contact Estimation
with Semi-Supervised Learning [70.72037296392642]
モノクロ画像から接触を学習できる新しい半教師付きフレームワークを提案する。
具体的には、大規模データセットにおける視覚的および幾何学的整合性制約を利用して擬似ラベルを生成する。
より正確な再構築を行うために手動インタラクションを規定するコンタクトマップを使用することの利点を示す。
論文 参考訳(メタデータ) (2022-08-01T14:05:23Z) - Collaborative Learning for Hand and Object Reconstruction with
Attention-guided Graph Convolution [49.10497573378427]
インタラクション中の手や物体のポーズと形状を推定すると、拡張現実や仮想現実を含む多くの応用が見つかる。
我々のアルゴリズムはオブジェクトモデルへの最適化であり、手動オブジェクトの相互作用を管理する物理規則を学習する。
広範に使用されている4つのベンチマークを用いて実験したところ、我々のフレームワークは3次元ポーズ推定における最先端の精度を超えて達成でき、また、密集した3次元手や物体の形状を復元できることがわかった。
論文 参考訳(メタデータ) (2022-04-27T17:00:54Z) - Non-Local Latent Relation Distillation for Self-Adaptive 3D Human Pose
Estimation [63.199549837604444]
3次元ポーズ推定アプローチは、強い(2D/3Dポーズ)または弱い(複数ビューまたは深さ)ペアによる監督の異なる形態を利用する。
我々は3Dポーズ学習を,ラベル付きソースドメインから完全に損なわれないターゲットへのタスク知識の転送を目的とした,自己指導型適応問題として捉えた。
我々は、異なる自己適応設定を評価し、標準ベンチマークで最先端の3Dポーズ推定性能を示す。
論文 参考訳(メタデータ) (2022-04-05T03:52:57Z) - 3D Shape Reconstruction from Vision and Touch [62.59044232597045]
3次元形状再構成では、視覚と触覚の相補的な融合はほとんど未解明のままである。
本稿では,ロボットハンドと多数の3Dオブジェクトの相互作用から,触覚と視覚信号のシミュレーションデータセットを提案する。
論文 参考訳(メタデータ) (2020-07-07T20:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。