論文の概要: Garment Avatars: Realistic Cloth Driving using Pattern Registration
- arxiv url: http://arxiv.org/abs/2206.03373v1
- Date: Tue, 7 Jun 2022 15:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 18:31:56.705677
- Title: Garment Avatars: Realistic Cloth Driving using Pattern Registration
- Title(参考訳): Garment Avatars: パターン登録によるリアルな衣服運転
- Authors: Oshri Halimi, Fabian Prada, Tuur Stuyck, Donglai Xiang, Timur
Bagautdinov, He Wen, Ron Kimmel, Takaaki Shiratori, Chenglei Wu, Yaser Sheikh
- Abstract要約: 衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
ガーメント・アバター(Garment Avatar)は、衣服の表現的かつ完全に駆動可能な幾何学モデルである。
リアルな仮想テレプレゼンスアプリケーションにおけるパイプラインの有効性を実証する。
- 参考スコア(独自算出の注目度): 39.936812232884954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual telepresence is the future of online communication. Clothing is an
essential part of a person's identity and self-expression. Yet, ground truth
data of registered clothes is currently unavailable in the required resolution
and accuracy for training telepresence models for realistic cloth animation.
Here, we propose an end-to-end pipeline for building drivable representations
for clothing. The core of our approach is a multi-view patterned cloth tracking
algorithm capable of capturing deformations with high accuracy. We further rely
on the high-quality data produced by our tracking method to build a Garment
Avatar: an expressive and fully-drivable geometry model for a piece of
clothing. The resulting model can be animated using a sparse set of views and
produces highly realistic reconstructions which are faithful to the driving
signals. We demonstrate the efficacy of our pipeline on a realistic virtual
telepresence application, where a garment is being reconstructed from two
views, and a user can pick and swap garment design as they wish. In addition,
we show a challenging scenario when driven exclusively with body pose, our
drivable garment avatar is capable of producing realistic cloth geometry of
significantly higher quality than the state-of-the-art.
- Abstract(参考訳): 仮想テレプレゼンスは、オンラインコミュニケーションの未来である。
衣服は個人のアイデンティティと自己表現の重要な部分である。
しかし、現実的な布のアニメーションのためのテレプレゼンスモデルの訓練に必要な解像度と精度では、現在、登録された衣服の真実データが利用できない。
本稿では,衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
提案手法のコアとなるのは,高精度に変形をキャプチャできる多視点パターン追跡アルゴリズムである。
さらに,この追跡手法によって得られた高品質なデータを活用して,衣服のアバターを製作する。
得られたモデルはスパースビューを用いてアニメーションすることができ、駆動信号に忠実な非常に現実的な再構成を生成する。
2つのビューから衣料品を再構築し,ユーザが希望通りに衣料品のデザインを選択・交換できる現実的仮想テレプレゼンスアプリケーションにおいて,パイプラインの有効性を実証する。
また,身体的姿勢のみに駆り立てられる場合の難解なシナリオを示すとともに,着衣のアバターは,最先端よりも極めて高品質な現実的な布の形状を作り出すことができる。
関連論文リスト
- AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset [5.260305201345232]
そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-06-24T08:57:36Z) - PERGAMO: Personalized 3D Garments from Monocular Video [6.8338761008826445]
PERGAMOはモノクロ画像から3D衣服の変形可能なモデルを学ぶためのデータ駆動型アプローチである。
まず,1枚の画像から衣服の3次元形状を再構築する新しい手法を紹介し,それを用いて単眼ビデオから衣服のデータセットを構築する。
本手法は,実世界の動作にマッチする衣料アニメーションを作成でき,モーションキャプチャーデータセットから抽出した身体の動きを一般化できることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:15:54Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。