論文の概要: ContactGen: Generative Contact Modeling for Grasp Generation
- arxiv url: http://arxiv.org/abs/2310.03740v1
- Date: Thu, 5 Oct 2023 17:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 13:09:29.219193
- Title: ContactGen: Generative Contact Modeling for Grasp Generation
- Title(参考訳): ContactGen: Grasp生成のための生成的コンタクトモデリング
- Authors: Shaowei Liu, Yang Zhou, Jimei Yang, Saurabh Gupta, Shenlong Wang
- Abstract要約: 本稿では,手動物体間相互作用のためのオブジェクト中心の接触表現型コンタクトGenを提案する。
本研究では,ContactGen予測のための条件生成モデルを提案する。
- 参考スコア(独自算出の注目度): 37.56729700157981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel object-centric contact representation ContactGen
for hand-object interaction. The ContactGen comprises three components: a
contact map indicates the contact location, a part map represents the contact
hand part, and a direction map tells the contact direction within each part.
Given an input object, we propose a conditional generative model to predict
ContactGen and adopt model-based optimization to predict diverse and
geometrically feasible grasps. Experimental results demonstrate our method can
generate high-fidelity and diverse human grasps for various objects. Project
page: https://stevenlsw.github.io/contactgen/
- Abstract(参考訳): 本稿では,ハンド・オブジェクトインタラクションのための新しい物体中心接触表現コンタクトジェネレータを提案する。
コンタクトマップは、接触位置を示す接触マップと、接触ハンド部を表す部分マップと、各部分内の接触方向を示す方向マップと、の3つの構成からなる。
入力対象に与えられた条件付き生成モデルを用いてコンタクトゲンを予測し,モデルに基づく最適化を行い,多様かつ幾何学的に実現可能な把握を予測できる。
実験の結果,多種多様な物体に対して高い忠実度と多様な人間の把持を生成できることが実証された。
プロジェクトページ: https://stevenlsw.github.io/contactgen/
関連論文リスト
- ClickDiff: Click to Induce Semantic Contact Map for Controllable Grasp Generation with Diffusion Models [17.438429495623755]
ClickDiffは、きめ細かいセマンティックコンタクトマップを利用する制御可能な条件生成モデルである。
このフレームワーク内では、セマンティック条件付きモジュールは、きめ細かい接触情報に基づいて適切な接触マップを生成する。
提案手法の有効性を検証し,ClickDiffの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2024-07-28T02:42:29Z) - NL2Contact: Natural Language Guided 3D Hand-Object Contact Modeling with Diffusion Model [45.00669505173757]
NL2Contactは、段階拡散モデルを利用して制御可能な接触を生成するモデルである。
手と接触の言語記述を与えられたNL2Contactは、現実的で忠実な3Dハンドオブジェクト接触を生成する。
ポーズの最適化と新しい人間のグリップ生成のためのモデルの適用例を示す。
論文 参考訳(メタデータ) (2024-07-17T16:46:40Z) - G-HOP: Generative Hand-Object Prior for Interaction Reconstruction and Grasp Synthesis [57.07638884476174]
G-HOPは手-対象相互作用の前駆体である。
人手は骨格距離場を介して表現し、物体の符号付き距離場と整合した表現を得る。
この手動物体は、対話クリップからの再構成や人間のつかみ合成など、他の作業を容易にするための汎用的なガイダンスとして機能することを示す。
論文 参考訳(メタデータ) (2024-04-18T17:59:28Z) - Contact-aware Human Motion Generation from Textual Descriptions [57.871692507044344]
本稿では,テキストから3次元対話型人間の動作を生成する問題に対処する。
私たちは「Contact-Aware Texts」を表すRICH-CATという新しいデータセットを作成します。
そこで本研究では,テキストによる対話型人間の動作合成のためのCATMOという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-23T04:08:39Z) - ContactGen: Contact-Guided Interactive 3D Human Generation for Partners [9.13466172688693]
物理的接触の観点から3次元ヒューマンジェネレーションの新たな課題を導入する。
与えられたパートナーヒトは、相互作用の種類に応じて多様なポーズと異なる接触領域を持つことができる。
そこで本研究では,対話型3次元人間を,ガイド付き拡散フレームワークに基づいて生成する手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T17:57:46Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Contact2Grasp: 3D Grasp Synthesis via Hand-Object Contact Constraint [18.201389966034263]
3Dグリップ合成は、入力対象が与えられたグリップポーズを生成する。
本研究では, 接触領域を把握するための中間変数を導入し, グリップ生成を制約する。
本手法は,各種メトリクスの把握に関する最先端手法よりも優れる。
論文 参考訳(メタデータ) (2022-10-17T16:39:25Z) - ContactPose: A Dataset of Grasps with Object Contact and Hand Pose [27.24450178180785]
本研究では、手ポーズ、オブジェクトポーズ、RGB-D画像と組み合わせた、手オブジェクト接触の最初のデータセットであるContactPoseを紹介する。
ContactPoseは25の家庭用物体の2306のユニークな把握能力を持ち、50人の被験者による2つの機能的意図と2.9 M RGB-Dの把握画像を持っている。
論文 参考訳(メタデータ) (2020-07-19T01:01:14Z) - 3D Shape Reconstruction from Vision and Touch [62.59044232597045]
3次元形状再構成では、視覚と触覚の相補的な融合はほとんど未解明のままである。
本稿では,ロボットハンドと多数の3Dオブジェクトの相互作用から,触覚と視覚信号のシミュレーションデータセットを提案する。
論文 参考訳(メタデータ) (2020-07-07T20:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。