論文の概要: The Power of Points for Modeling Humans in Clothing
- arxiv url: http://arxiv.org/abs/2109.01137v1
- Date: Thu, 2 Sep 2021 17:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-03 13:46:22.524193
- Title: The Power of Points for Modeling Humans in Clothing
- Title(参考訳): 衣服における人体モデリングのためのポイントの力
- Authors: Qianli Ma and Jinlong Yang and Siyu Tang and Michael J. Black
- Abstract要約: 現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
- 参考スコア(独自算出の注目度): 60.00557674969284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Currently it requires an artist to create 3D human avatars with realistic
clothing that can move naturally. Despite progress on 3D scanning and modeling
of human bodies, there is still no technology that can easily turn a static
scan into an animatable avatar. Automating the creation of such avatars would
enable many applications in games, social networking, animation, and AR/VR to
name a few. The key problem is one of representation. Standard 3D meshes are
widely used in modeling the minimally-clothed body but do not readily capture
the complex topology of clothing. Recent interest has shifted to implicit
surface models for this task but they are computationally heavy and lack
compatibility with existing 3D tools. What is needed is a 3D representation
that can capture varied topology at high resolution and that can be learned
from data. We argue that this representation has been with us all along -- the
point cloud. Point clouds have properties of both implicit and explicit
representations that we exploit to model 3D garment geometry on a human body.
We train a neural network with a novel local clothing geometric feature to
represent the shape of different outfits. The network is trained from 3D point
clouds of many types of clothing, on many bodies, in many poses, and learns to
model pose-dependent clothing deformations. The geometry feature can be
optimized to fit a previously unseen scan of a person in clothing, enabling the
scan to be reposed realistically. Our model demonstrates superior quantitative
and qualitative results in both multi-outfit modeling and unseen outfit
animation. The code is available for research purposes.
- Abstract(参考訳): 現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
人体の3dスキャンやモデリングの進歩にもかかわらず、静的スキャンをアニメーション可能なアバターに簡単に変換できる技術はまだない。
このようなアバターの作成を自動化することで、ゲーム、ソーシャルネットワーキング、アニメーション、ar/vrの多くのアプリケーションが名前をつけることができるだろう。
鍵となる問題は表現の1つです。
標準の3Dメッシュは、最小限の衣服をモデル化するのに広く用いられているが、衣服の複雑なトポロジーを容易に捉えることはできない。
最近の関心は、このタスクの暗黙的な表面モデルに移行しているが、計算的に重く、既存の3Dツールとの互換性がない。
必要なのは、様々なトポロジーを高解像度で捉え、データから学ぶことができる3d表現である。
私たちは、この表現はずっと私たちと共にいた、と論じています -- ポイントクラウドです。
点雲は暗黙の表現と明示的な表現の両方の性質を持ち、人間の体に3Dの幾何学をモデル化するために利用します。
我々は,新しい局所的衣服幾何学的特徴を用いてニューラルネットワークを訓練し,異なる衣装の形状を表現する。
ネットワークは、様々な種類の衣服の3dポイント雲から多くのポーズで訓練され、ポーズ依存の衣服変形をモデル化することを学ぶ。
幾何学的特徴は、以前に見つからなかった被服者のスキャンに適合するように最適化することができ、スキャンを現実的に再現することができる。
本モデルでは,マルチアウトフィット・モデリングと不明瞭な衣料アニメーションの両方において,定量的,質的な結果が優れていることを示す。
コードは研究目的に利用できる。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Dynamic Appearance Modeling of Clothed 3D Human Avatars using a Single
Camera [8.308263758475938]
本研究では,動的な動きを持つ人の映像を用いて,布を被った3次元アバターの高品質なモデリング手法を提案する。
明示的なモデリングのために、ニューラルネットワークは、3Dボディモデルのポイントワイドな形状残差と外観特徴を生成することを学習する。
暗黙のモデリングのために、暗黙のネットワークは、外観と3Dモーション特徴を組み合わせて、高忠実な3Dアバターをデコードする。
論文 参考訳(メタデータ) (2023-12-28T06:04:39Z) - Realistic, Animatable Human Reconstructions for Virtual Fit-On [0.7649716717097428]
個人化された3D人間モデルに異なる衣服を合わせることができるエンドツーエンドの仮想試着パイプラインを提案する。
本研究の主な目的は、3次元仮想環境において、アニマタブルな3次元人間モデルを構築し、異なる衣服を試着することである。
論文 参考訳(メタデータ) (2022-10-16T13:36:24Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。