論文の概要: SAGA: Stochastic Whole-Body Grasping with Contact
- arxiv url: http://arxiv.org/abs/2112.10103v1
- Date: Sun, 19 Dec 2021 10:15:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 16:34:43.505909
- Title: SAGA: Stochastic Whole-Body Grasping with Contact
- Title(参考訳): SAGA:接触による確率的全体移植
- Authors: Yan Wu, Jiahao Wang, Yan Zhang, Siwei Zhang, Otmar Hilliges, Fisher
Yu, Siyu Tang
- Abstract要約: 人間の握り合成には、AR/VR、ビデオゲーム、ロボット工学など多くの応用がある。
本研究の目的は,体全体をつかむ動作を合成することである。3次元物体が与えられたら,物体に接近してつかむような,多様で自然な人体の動きを生成することを目的としている。
- 参考スコア(独自算出の注目度): 60.43627793243098
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human grasping synthesis has numerous applications including AR/VR, video
games, and robotics. While some methods have been proposed to generate
realistic hand-object interaction for object grasping and manipulation, they
typically only consider the hand interacting with objects. In this work, our
goal is to synthesize whole-body grasping motion. Given a 3D object, we aim to
generate diverse and natural whole-body human motions that approach and grasp
the object. This task is challenging as it requires modeling both whole-body
dynamics and dexterous finger movements. To this end, we propose SAGA
(StochAstic whole-body Grasping with contAct) which consists of two key
components: (a) Static whole-body grasping pose generation. Specifically, we
propose a multi-task generative model, to jointly learn static whole-body
grasping poses and human-object contacts. (b) Grasping motion infilling. Given
an initial pose and the generated whole-body grasping pose as the starting and
ending poses of the motion respectively, we design a novel contact-aware
generative motion infilling module to generate a diverse set of grasp-oriented
motions. We demonstrate the effectiveness of our method being the first
generative framework to synthesize realistic and expressive whole-body motions
that approach and grasp randomly placed unseen objects. The code and videos are
available at: https://jiahaoplus.github.io/SAGA/saga.html.
- Abstract(参考訳): 人間の握り合成には、AR/VR、ビデオゲーム、ロボット工学など多くの応用がある。
オブジェクトの握りと操作のための現実的なハンドオブジェクトインタラクションを生成する方法が提案されているが、通常はオブジェクトと相互作用する手のみを考える。
本研究の目的は,全身把持動作を合成することである。
3Dオブジェクトが与えられたら、オブジェクトに接近して把握する多様な自然界の人体の動きを生成することを目指している。
この作業は、全身のダイナミックスとデクスタースの指の動きの両方をモデル化する必要があるため、困難である。
この目的のために,2つのキーコンポーネントからなるSAGA(StochAstic whole-body Grasping with contAct)を提案する。
(a)静的な全身把握ポーズ生成
具体的には,静的全身把持姿勢と対物接触を共同学習するマルチタスク生成モデルを提案する。
(b)動作インフィルングの把握。
動作の最初のポーズと生成した全身把持姿勢をそれぞれ動作の開始と終了のポーズとして与え、新しい接触認識型生成運動埋込みモジュールを設計し、多様な把持指向動作を生成する。
本手法は,非知覚物体に接近して把握する現実的で表現力のある全身運動を合成する最初の生成枠組みである。
https://jiahaoplus.github.io/saga/saga.html。
関連論文リスト
- GraspDiffusion: Synthesizing Realistic Whole-body Hand-Object Interaction [9.564223516111275]
最近の生成モデルは高品質な画像を合成できるが、しばしば手を使って物体と相互作用する人間の生成に失敗する。
本稿では,人間と物体の相互作用の現実的なシーンを生成する新しい生成法であるGraspDiffusionを提案する。
論文 参考訳(メタデータ) (2024-10-17T01:45:42Z) - Target Pose Guided Whole-body Grasping Motion Generation for Digital Humans [8.741075482543991]
本稿では,デジタル人間のための把握動作生成フレームワークを提案する。
我々はまず,オフザシェルフ目標把握ポーズ生成法に基づいて,全身デジタル人間のターゲットポーズを生成する。
最初のポーズとこの生成されたターゲットポーズで、トランスフォーマーベースのニューラルネットワークを使用して、把握軌道全体を生成する。
論文 参考訳(メタデータ) (2024-09-26T05:43:23Z) - GRIP: Generating Interaction Poses Using Spatial Cues and Latent Consistency [57.9920824261925]
手は器用で多用途なマニピュレータであり、人間が物体や環境とどのように相互作用するかの中心である。
現実的な手オブジェクトの相互作用をモデル化することは、コンピュータグラフィックス、コンピュータビジョン、混合現実の応用において重要である。
GRIPは、体と物体の3次元運動を入力として取り、物体の相互作用の前、中、後の両方の両手の現実的な動きを合成する学習ベースの手法である。
論文 参考訳(メタデータ) (2023-08-22T17:59:51Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z) - Generating Holistic 3D Human Motion from Speech [97.11392166257791]
同期音声を用いた3次元全体体メッシュの高品質データセットを構築した。
次に,顔,体,手が別々にモデル化される新しい音声合成フレームワークを定義する。
論文 参考訳(メタデータ) (2022-12-08T17:25:19Z) - GOAL: Generating 4D Whole-Body Motion for Hand-Object Grasping [47.49549115570664]
既存の方法は、手と頭を無視して、身体の主肢に焦点を合わせている。手は別々に研究されているが、対象物の現実的な静的な把握に焦点が当てられている。
我々は、全体の動きと現実的な手の動きを同時に生成する必要がある。
本研究では,未知の物体をつかむアバターの全身,手,頭部の動きを初めて生成する問題に対処する。
論文 参考訳(メタデータ) (2021-12-21T18:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。