論文の概要: ContactGen: Generative Contact Modeling for Grasp Generation
- arxiv url: http://arxiv.org/abs/2310.03740v1
- Date: Thu, 5 Oct 2023 17:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 13:09:29.219193
- Title: ContactGen: Generative Contact Modeling for Grasp Generation
- Title(参考訳): ContactGen: Grasp生成のための生成的コンタクトモデリング
- Authors: Shaowei Liu, Yang Zhou, Jimei Yang, Saurabh Gupta, Shenlong Wang
- Abstract要約: 本稿では,手動物体間相互作用のためのオブジェクト中心の接触表現型コンタクトGenを提案する。
本研究では,ContactGen予測のための条件生成モデルを提案する。
- 参考スコア(独自算出の注目度): 37.56729700157981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel object-centric contact representation ContactGen
for hand-object interaction. The ContactGen comprises three components: a
contact map indicates the contact location, a part map represents the contact
hand part, and a direction map tells the contact direction within each part.
Given an input object, we propose a conditional generative model to predict
ContactGen and adopt model-based optimization to predict diverse and
geometrically feasible grasps. Experimental results demonstrate our method can
generate high-fidelity and diverse human grasps for various objects. Project
page: https://stevenlsw.github.io/contactgen/
- Abstract(参考訳): 本稿では,ハンド・オブジェクトインタラクションのための新しい物体中心接触表現コンタクトジェネレータを提案する。
コンタクトマップは、接触位置を示す接触マップと、接触ハンド部を表す部分マップと、各部分内の接触方向を示す方向マップと、の3つの構成からなる。
入力対象に与えられた条件付き生成モデルを用いてコンタクトゲンを予測し,モデルに基づく最適化を行い,多様かつ幾何学的に実現可能な把握を予測できる。
実験の結果,多種多様な物体に対して高い忠実度と多様な人間の把持を生成できることが実証された。
プロジェクトページ: https://stevenlsw.github.io/contactgen/
関連論文リスト
- ContactGen: Contact-Guided Interactive 3D Human Generation for Partners [9.13466172688693]
物理的接触の観点から3次元ヒューマンジェネレーションの新たな課題を導入する。
与えられたパートナーヒトは、相互作用の種類に応じて多様なポーズと異なる接触領域を持つことができる。
そこで本研究では,対話型3次元人間を,ガイド付き拡散フレームワークに基づいて生成する手法を提案する。
論文 参考訳(メタデータ) (2024-01-30T17:57:46Z) - DECO: Dense Estimation of 3D Human-Scene Contact In The Wild [54.44345845842109]
SMPL体上の接触を推定するために、身体部分駆動とシーンコンテキスト駆動の両方の注意を用いた新しい3D接触検出器を訓練する。
すべてのベンチマークで既存のSOTAメソッドよりも大幅に優れています。
また、DECが自然画像における多様で挑戦的な現実世界の人間のインタラクションによく当てはまることを定性的に示す。
論文 参考訳(メタデータ) (2023-09-26T21:21:07Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Detecting Human-Object Contact in Images [75.35017308643471]
人間は常にオブジェクトに接触し、タスクを動かします。
画像から身体とシーンの接触を検出する堅牢な方法はない。
我々は、画像のための人間と物体の接触のデータセットを新たに構築する。
論文 参考訳(メタデータ) (2023-03-06T18:56:26Z) - Neural Contact Fields: Tracking Extrinsic Contact with Tactile Sensing [36.609644278386135]
本稿では,物体と環境の間の外在的接触を追跡する問題に対処するため,ニューラルネットワークと触覚センサを組み合わせたニューラルコンタクトフィールドを提案する。
外部との接触がどこで起きているかを知ることは、下流操作作業を容易にするために、それをアクティブに制御できるメソッドへの第一歩である。
論文 参考訳(メタデータ) (2022-10-17T17:52:43Z) - Contact2Grasp: 3D Grasp Synthesis via Hand-Object Contact Constraint [18.201389966034263]
3Dグリップ合成は、入力対象が与えられたグリップポーズを生成する。
本研究では, 接触領域を把握するための中間変数を導入し, グリップ生成を制約する。
本手法は,各種メトリクスの把握に関する最先端手法よりも優れる。
論文 参考訳(メタデータ) (2022-10-17T16:39:25Z) - S$^2$Contact: Graph-based Network for 3D Hand-Object Contact Estimation
with Semi-Supervised Learning [70.72037296392642]
モノクロ画像から接触を学習できる新しい半教師付きフレームワークを提案する。
具体的には、大規模データセットにおける視覚的および幾何学的整合性制約を利用して擬似ラベルを生成する。
より正確な再構築を行うために手動インタラクションを規定するコンタクトマップを使用することの利点を示す。
論文 参考訳(メタデータ) (2022-08-01T14:05:23Z) - ContactPose: A Dataset of Grasps with Object Contact and Hand Pose [27.24450178180785]
本研究では、手ポーズ、オブジェクトポーズ、RGB-D画像と組み合わせた、手オブジェクト接触の最初のデータセットであるContactPoseを紹介する。
ContactPoseは25の家庭用物体の2306のユニークな把握能力を持ち、50人の被験者による2つの機能的意図と2.9 M RGB-Dの把握画像を持っている。
論文 参考訳(メタデータ) (2020-07-19T01:01:14Z) - 3D Shape Reconstruction from Vision and Touch [62.59044232597045]
3次元形状再構成では、視覚と触覚の相補的な融合はほとんど未解明のままである。
本稿では,ロボットハンドと多数の3Dオブジェクトの相互作用から,触覚と視覚信号のシミュレーションデータセットを提案する。
論文 参考訳(メタデータ) (2020-07-07T20:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。