論文の概要: Contact2Grasp: 3D Grasp Synthesis via Hand-Object Contact Constraint
- arxiv url: http://arxiv.org/abs/2210.09245v3
- Date: Sat, 6 May 2023 07:53:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 00:17:28.665115
- Title: Contact2Grasp: 3D Grasp Synthesis via Hand-Object Contact Constraint
- Title(参考訳): Contact2Grasp:手動接触拘束による3次元グラフ合成
- Authors: Haoming Li, Xinzhuo Lin, Yang Zhou, Xiang Li, Yuchi Huo, Jiming Chen
and Qi Ye
- Abstract要約: 3Dグリップ合成は、入力対象が与えられたグリップポーズを生成する。
本研究では, 接触領域を把握するための中間変数を導入し, グリップ生成を制約する。
本手法は,各種メトリクスの把握に関する最先端手法よりも優れる。
- 参考スコア(独自算出の注目度): 18.201389966034263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D grasp synthesis generates grasping poses given an input object. Existing
works tackle the problem by learning a direct mapping from objects to the
distributions of grasping poses. However, because the physical contact is
sensitive to small changes in pose, the high-nonlinear mapping between 3D
object representation to valid poses is considerably non-smooth, leading to
poor generation efficiency and restricted generality. To tackle the challenge,
we introduce an intermediate variable for grasp contact areas to constrain the
grasp generation; in other words, we factorize the mapping into two sequential
stages by assuming that grasping poses are fully constrained given contact
maps: 1) we first learn contact map distributions to generate the potential
contact maps for grasps; 2) then learn a mapping from the contact maps to the
grasping poses. Further, we propose a penetration-aware optimization with the
generated contacts as a consistency constraint for grasp refinement. Extensive
validations on two public datasets show that our method outperforms
state-of-the-art methods regarding grasp generation on various metrics.
- Abstract(参考訳): 3次元把持合成は、入力対象に与えられた把持ポーズを生成する。
既存の作業は、オブジェクトから把握ポーズの分布への直接マッピングを学ぶことで、この問題に取り組む。
しかし、物理的接触はポーズの小さな変化に敏感であるため、3次元オブジェクト表現と有効なポーズとの高非線形マッピングはかなり非滑らかであり、生成効率の低下と制限された一般性をもたらす。
この課題に取り組むために,接触領域を把握し,把持生成を制約する中間変数を導入する。つまり,把持ポーズが与えられた接触マップに完全に制約されていると仮定して,2つの逐次ステージにマッピングを分解する。
1)まず接触地図の分布を学習し,潜在的な接触地図を生成する。
2) 接触マップから把握ポーズへのマッピングを学習する。
さらに, 生成したコンタクトを用いた浸透認識最適化を, 把握の一貫性の制約として提案する。
2つの公開データセットに対する広範囲な検証により,本手法は各種メトリクスの把握に関する最先端の手法よりも優れていることが示された。
関連論文リスト
- ClickDiff: Click to Induce Semantic Contact Map for Controllable Grasp Generation with Diffusion Models [17.438429495623755]
ClickDiffは、きめ細かいセマンティックコンタクトマップを利用する制御可能な条件生成モデルである。
このフレームワーク内では、セマンティック条件付きモジュールは、きめ細かい接触情報に基づいて適切な接触マップを生成する。
提案手法の有効性を検証し,ClickDiffの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2024-07-28T02:42:29Z) - Text2HOI: Text-guided 3D Motion Generation for Hand-Object Interaction [8.253265795150401]
本稿では,3Dにおける手-物間相互作用のシーケンスを生成するための最初のテキスト誘導作業について紹介する。
接触生成のために、VAEベースのネットワークはテキストとオブジェクトメッシュを入力として、手の表面とオブジェクトとの間の接触の確率を生成する。
運動生成のために、トランスフォーマーベースの拡散モデルは、この3Dコンタクトマップを、物理的に可塑性な手オブジェクトの動きを生成するための強力な先行手段として利用する。
論文 参考訳(メタデータ) (2024-03-31T04:56:30Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - S$^2$Contact: Graph-based Network for 3D Hand-Object Contact Estimation
with Semi-Supervised Learning [70.72037296392642]
モノクロ画像から接触を学習できる新しい半教師付きフレームワークを提案する。
具体的には、大規模データセットにおける視覚的および幾何学的整合性制約を利用して擬似ラベルを生成する。
より正確な再構築を行うために手動インタラクションを規定するコンタクトマップを使用することの利点を示す。
論文 参考訳(メタデータ) (2022-08-01T14:05:23Z) - Collaborative Learning for Hand and Object Reconstruction with
Attention-guided Graph Convolution [49.10497573378427]
インタラクション中の手や物体のポーズと形状を推定すると、拡張現実や仮想現実を含む多くの応用が見つかる。
我々のアルゴリズムはオブジェクトモデルへの最適化であり、手動オブジェクトの相互作用を管理する物理規則を学習する。
広範に使用されている4つのベンチマークを用いて実験したところ、我々のフレームワークは3次元ポーズ推定における最先端の精度を超えて達成でき、また、密集した3次元手や物体の形状を復元できることがわかった。
論文 参考訳(メタデータ) (2022-04-27T17:00:54Z) - Non-Local Latent Relation Distillation for Self-Adaptive 3D Human Pose
Estimation [63.199549837604444]
3次元ポーズ推定アプローチは、強い(2D/3Dポーズ)または弱い(複数ビューまたは深さ)ペアによる監督の異なる形態を利用する。
我々は3Dポーズ学習を,ラベル付きソースドメインから完全に損なわれないターゲットへのタスク知識の転送を目的とした,自己指導型適応問題として捉えた。
我々は、異なる自己適応設定を評価し、標準ベンチマークで最先端の3Dポーズ推定性能を示す。
論文 参考訳(メタデータ) (2022-04-05T03:52:57Z) - 3D Shape Reconstruction from Vision and Touch [62.59044232597045]
3次元形状再構成では、視覚と触覚の相補的な融合はほとんど未解明のままである。
本稿では,ロボットハンドと多数の3Dオブジェクトの相互作用から,触覚と視覚信号のシミュレーションデータセットを提案する。
論文 参考訳(メタデータ) (2020-07-07T20:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。