論文の概要: HSPACE: Synthetic Parametric Humans Animated in Complex Environments
- arxiv url: http://arxiv.org/abs/2112.12867v1
- Date: Thu, 23 Dec 2021 22:27:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 16:03:50.860560
- Title: HSPACE: Synthetic Parametric Humans Animated in Complex Environments
- Title(参考訳): HSPACE:複雑な環境でアニメーションされた合成パラメトリック人間
- Authors: Eduard Gabriel Bazavan, Andrei Zanfir, Mihai Zanfir, William T.
Freeman, Rahul Sukthankar, Cristian Sminchisescu
- Abstract要約: 我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
- 参考スコア(独自算出の注目度): 67.8628917474705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in the state of the art for 3d human sensing are currently limited
by the lack of visual datasets with 3d ground truth, including multiple people,
in motion, operating in real-world environments, with complex illumination or
occlusion, and potentially observed by a moving camera. Sophisticated scene
understanding would require estimating human pose and shape as well as
gestures, towards representations that ultimately combine useful metric and
behavioral signals with free-viewpoint photo-realistic visualisation
capabilities. To sustain progress, we build a large-scale photo-realistic
dataset, Human-SPACE (HSPACE), of animated humans placed in complex synthetic
indoor and outdoor environments. We combine a hundred diverse individuals of
varying ages, gender, proportions, and ethnicity, with hundreds of motions and
scenes, as well as parametric variations in body shape (for a total of 1,600
different humans), in order to generate an initial dataset of over 1 million
frames. Human animations are obtained by fitting an expressive human body
model, GHUM, to single scans of people, followed by novel re-targeting and
positioning procedures that support the realistic animation of dressed humans,
statistical variation of body proportions, and jointly consistent scene
placement of multiple moving people. Assets are generated automatically, at
scale, and are compatible with existing real time rendering and game engines.
The dataset with evaluation server will be made available for research. Our
large-scale analysis of the impact of synthetic data, in connection with real
data and weak supervision, underlines the considerable potential for continuing
quality improvements and limiting the sim-to-real gap, in this practical
setting, in connection with increased model capacity.
- Abstract(参考訳): 人間の3Dセンシング技術の現状は、現在、複数の人物が動いたり、現実の環境で活動したり、複雑な照明や隠蔽を受けたり、移動中のカメラで観察されるような、視覚的なデータセットの欠如によって制限されている。
高度化されたシーン理解には、人間のポーズと形状とジェスチャーを推定し、最終的に有用なメートル法と行動信号と自由視点のフォトリアリスティックな視覚的能力を組み合わせた表現が必要である。
複雑な室内・屋外環境に設置したアニメーション人間を対象とした大規模写真リアルデータセットHSPACEを構築した。
さまざまな年齢、性別、比率、民族の数百の個人と、数百の動きとシーンを組み合わせることで、100万フレームを超える最初のデータセットを生成するために、体形(合計1,600人の異なる人間に対して)のパラメトリックなバリエーションを作ります。
ヒトのアニメーションは、表現力のある人体モデルGHUMを人の1つのスキャンに適合させ、続いて、身なりの人間の現実的なアニメーションを支援する新しい再ターゲットと位置決め手順、身体比の統計的変動、複数の移動者の共同的なシーン配置によって得られる。
資産は自動的に生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
評価サーバを備えたデータセットが研究用に提供される予定だ。
実データと弱い監督との関係で,合成データの影響を大規模に分析した結果,モデル容量の増加に関連して,品質改善の継続とsim-to-realギャップの制限の可能性が示唆された。
関連論文リスト
- Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - TriHuman : A Real-time and Controllable Tri-plane Representation for
Detailed Human Geometry and Appearance Synthesis [76.73338151115253]
TriHumanは、人間によって調整され、変形可能で、効率的な三面体表現である。
我々は、未変形の三面体テクスチャ空間に、地球規模のサンプルを厳格にワープする。
このような三面的特徴表現が骨格運動でどのように条件付けされ、動的外観や幾何学的変化を考慮に入れられるかを示す。
論文 参考訳(メタデータ) (2023-12-08T16:40:38Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z) - Embodied Scene-aware Human Pose Estimation [25.094152307452]
シーン認識型人間のポーズ推定手法を提案する。
本手法は, シミュレーション環境下でのグローバルな3次元人間のポーズを再現し, 因果関係の1段階である。
論文 参考訳(メタデータ) (2022-06-18T03:50:19Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z) - Learning Compositional Radiance Fields of Dynamic Human Heads [13.272666180264485]
従来の方法のベストを組み合わせ、高分解能と高速な結果の両方を生成する新しい合成3D表現を提案します。
異なるボリュームレンダリングを用いて、人間の頭部と上半身のフォトリアリスティックなノベルビューを計算する。
本研究は,人間の頭と上半身の新たな視線を合成する手法である。
論文 参考訳(メタデータ) (2020-12-17T22:19:27Z) - PLACE: Proximity Learning of Articulation and Contact in 3D Environments [70.50782687884839]
本研究では,人体と周囲の3Dシーンとの近接性をモデル化した新しいインタラクション生成手法PLACEを提案する。
我々の知覚学的研究は、PLACEが実際の人間とシーンの相互作用のリアリズムにアプローチし、最先端の手法を著しく改善することを示している。
論文 参考訳(メタデータ) (2020-08-12T21:00:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。