論文の概要: Point-Based Modeling of Human Clothing
- arxiv url: http://arxiv.org/abs/2104.08230v1
- Date: Fri, 16 Apr 2021 17:12:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:18:43.598190
- Title: Point-Based Modeling of Human Clothing
- Title(参考訳): 人間服のポイントベースモデリング
- Authors: Ilya Zakharkin, Kirill Mazur, Artur Grigoriev, Victor Lempitsky
- Abstract要約: 我々は、さまざまな服装、さまざまな人間のポーズ、さまざまな人間の身体形状の点雲を予測できる深いモデルを学ぶ。
学習モデルを用いることで,新たな衣装の形状をシン画像から推測することができる。
我々は,ポイントクラウド幾何を幾何学的足場として用いる外観モデルを用いて幾何学的モデルを補完する。
- 参考スコア(独自算出の注目度): 1.7842332554022693
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a new approach to human clothing modeling based on point clouds.
Within this approach, we learn a deep model that can predict point clouds of
various outfits, for various human poses and for various human body shapes.
Notably, outfits of various types and topologies can be handled by the same
model. Using the learned model, we can infer geometry of new outfits from as
little as a singe image, and perform outfit retargeting to new bodies in new
poses. We complement our geometric model with appearance modeling that uses the
point cloud geometry as a geometric scaffolding, and employs neural point-based
graphics to capture outfit appearance from videos and to re-render the captured
outfits. We validate both geometric modeling and appearance modeling aspects of
the proposed approach against recently proposed methods, and establish the
viability of point-based clothing modeling.
- Abstract(参考訳): 本稿では,ポイントクラウドに基づく衣服モデリングの新しいアプローチを提案する。
このアプローチでは,さまざまなポーズや人体形状など,さまざまな服装の点雲を予測できる深層モデルについて学習する。
特に、様々な種類やトポロジの衣装は同じモデルで扱うことができる。
学習モデルを用いて,新装束の形状をシン画像から推測し,新しいポーズで新装体への再ターゲティングを行うことができる。
我々は,ポイントクラウド幾何を幾何学的足場として用いた外観モデルを用いて幾何学モデルを補完し,ニューラルポイントベースのグラフィックを用いて映像から衣装の外観をキャプチャし,キャプチャした衣装を再レンダリングする。
提案手法に対する幾何学的モデリングと外観モデリングの両方の側面を検証し,ポイントベースの衣料品モデリングの実現可能性を確立する。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Neural-ABC: Neural Parametric Models for Articulated Body with Clothes [29.04941764336255]
本稿では, 身元, 衣服, 形状, ポーズなど, ゆがみのない空間で衣服を表現できる新しいモデルであるNeural-ABCを紹介する。
我々のモデルは、衣服のスタイルを保ちながら、異なる形状の衣服とアイデンティティとポーズを両立させることに優れています。
他の最先端のパラメトリックモデルと比較すると、Neural-ABCは人間の衣服を復元する上で強力なアドバンテージを示している。
論文 参考訳(メタデータ) (2024-04-06T16:29:10Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - imGHUM: Implicit Generative Models of 3D Human Shape and Articulated
Pose [42.4185273307021]
人間の3次元形状とポーズの合成モデルImGHUMについて述べる。
人間の全身をゼロレベルの関数として暗黙的にモデル化し、明示的なテンプレートメッシュを使用しない。
論文 参考訳(メタデータ) (2021-08-24T17:08:28Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。