論文の概要: FLEX: Full-Body Grasping Without Full-Body Grasps
- arxiv url: http://arxiv.org/abs/2211.11903v2
- Date: Tue, 28 Mar 2023 21:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 18:26:37.710484
- Title: FLEX: Full-Body Grasping Without Full-Body Grasps
- Title(参考訳): FLEX:フルボディグラスなしフルボディグラス
- Authors: Purva Tendulkar and D\'idac Sur\'is and Carl Vondrick
- Abstract要約: 我々は,日常の物体を把握し,人間の手と全身を仮想的に生成するタスクに対処する。
既存の方法では、オブジェクトと対話する人間の3Dデータセットを収集し、このデータに基づいてトレーニングすることで、この問題に対処する。
フルボディのポーズとハンドグルーピングの両方の存在を活用し、3次元幾何学的制約を用いて構成し、フルボディのグルーピングを得る。
- 参考スコア(独自算出の注目度): 24.10724524386518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing 3D human avatars interacting realistically with a scene is an
important problem with applications in AR/VR, video games and robotics. Towards
this goal, we address the task of generating a virtual human -- hands and full
body -- grasping everyday objects. Existing methods approach this problem by
collecting a 3D dataset of humans interacting with objects and training on this
data. However, 1) these methods do not generalize to different object positions
and orientations, or to the presence of furniture in the scene, and 2) the
diversity of their generated full-body poses is very limited. In this work, we
address all the above challenges to generate realistic, diverse full-body
grasps in everyday scenes without requiring any 3D full-body grasping data. Our
key insight is to leverage the existence of both full-body pose and hand
grasping priors, composing them using 3D geometrical constraints to obtain
full-body grasps. We empirically validate that these constraints can generate a
variety of feasible human grasps that are superior to baselines both
quantitatively and qualitatively. See our webpage for more details:
https://flex.cs.columbia.edu/.
- Abstract(参考訳): シーンとリアルに対話する3dアバターの合成は、ar/vr、ビデオゲーム、ロボット工学のアプリケーションにとって重要な問題である。
この目標に向けて、私たちは仮想的な人間 -- 手と全身 -- が日常の物体をつかむタスクに対処します。
既存の手法では、オブジェクトと対話する人間の3Dデータセットを収集し、このデータをトレーニングすることでこの問題に対処する。
しかし、
1)これらの方法は,異なる対象の位置や方向,又は場面における家具の存在に一般化しない。
2) 生成する全身ポーズの多様性は極めて限定的である。
本研究は,3次元フルボディグリーティングデータを必要とせずに,現実的で多様なフルボディグリーティングを日常のシーンで生成する上での課題に対処する。
私たちの重要な洞察は、フルボディポーズとハンドグラブ前後の両方の存在を活用し、それらを3次元幾何学的制約を用いて構成し、フルボディグラブを得ることである。
我々は,これらの制約が,定量的にも定性的にも基準線よりも優れた,多種多様な人間の握力を生み出すことを実証的に検証した。
詳細は、私たちのWebページを参照してください。
関連論文リスト
- Decanus to Legatus: Synthetic training for 2D-3D human pose lifting [26.108023246654646]
10個の手作り3Dポーズ(Decanus)に基づく3Dポーズ分布から無限個の合成人間のポーズ(Legatus)を生成するアルゴリズムを提案する。
この結果から,特定データセットの実際のデータを用いた手法に匹敵する3次元ポーズ推定性能を,ゼロショット設定で実現し,フレームワークの可能性を示した。
論文 参考訳(メタデータ) (2022-10-05T13:10:19Z) - BEHAVE: Dataset and Method for Tracking Human Object Interactions [105.77368488612704]
マルチビューのRGBDフレームとそれに対応する3D SMPLとオブジェクトをアノテートしたアノテートコンタクトに適合させる。
このデータを用いて、自然環境における人間と物体を、容易に使用可能なマルチカメラで共同で追跡できるモデルを学ぶ。
論文 参考訳(メタデータ) (2022-04-14T13:21:19Z) - GOAL: Generating 4D Whole-Body Motion for Hand-Object Grasping [47.49549115570664]
既存の方法は、手と頭を無視して、身体の主肢に焦点を合わせている。手は別々に研究されているが、対象物の現実的な静的な把握に焦点が当てられている。
我々は、全体の動きと現実的な手の動きを同時に生成する必要がある。
本研究では,未知の物体をつかむアバターの全身,手,頭部の動きを初めて生成する問題に対処する。
論文 参考訳(メタデータ) (2021-12-21T18:59:34Z) - SAGA: Stochastic Whole-Body Grasping with Contact [60.43627793243098]
人間の握り合成には、AR/VR、ビデオゲーム、ロボット工学など多くの応用がある。
本研究の目的は,体全体をつかむ動作を合成することである。3次元物体が与えられたら,物体に接近してつかむような,多様で自然な人体の動きを生成することを目的としている。
論文 参考訳(メタデータ) (2021-12-19T10:15:30Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z) - GRAB: A Dataset of Whole-Body Human Grasping of Objects [53.00728704389501]
人間の把握を理解するためのコンピュータの訓練には、複雑な3Dオブジェクトの形状、詳細な接触情報、ポーズと形状、時間の経過とともに3Dボディの動きを含む豊富なデータセットが必要である。
全身の3次元形状を含むGRABと呼ばれる新しいデータセットを収集し、形状と大きさの異なる51の日常的な物体と相互作用する10人の被験者のシーケンスを合成する。
これは、人間がオブジェクトをつかみ、操作する方法、全身がどのように関与し、どのように相互作用がタスクによって異なるかを理解するために、既存のデータセットをはるかに超えています。
論文 参考訳(メタデータ) (2020-08-25T17:57:55Z) - Perceiving 3D Human-Object Spatial Arrangements from a Single Image in
the Wild [96.08358373137438]
本研究では,世界規模で一貫した3Dシーンにおいて,人間や物体の空間的配置や形状を推定する手法を提案する。
本手法は,シーンレベルやオブジェクトレベルの3D監視を必要とせず,データセット上で動作させる。
論文 参考訳(メタデータ) (2020-07-30T17:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。