論文の概要: Garment Avatars: Realistic Cloth Driving using Pattern Registration
- arxiv url: http://arxiv.org/abs/2206.03373v1
- Date: Tue, 7 Jun 2022 15:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 18:31:56.705677
- Title: Garment Avatars: Realistic Cloth Driving using Pattern Registration
- Title(参考訳): Garment Avatars: パターン登録によるリアルな衣服運転
- Authors: Oshri Halimi, Fabian Prada, Tuur Stuyck, Donglai Xiang, Timur
Bagautdinov, He Wen, Ron Kimmel, Takaaki Shiratori, Chenglei Wu, Yaser Sheikh
- Abstract要約: 衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
ガーメント・アバター(Garment Avatar)は、衣服の表現的かつ完全に駆動可能な幾何学モデルである。
リアルな仮想テレプレゼンスアプリケーションにおけるパイプラインの有効性を実証する。
- 参考スコア(独自算出の注目度): 39.936812232884954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Virtual telepresence is the future of online communication. Clothing is an
essential part of a person's identity and self-expression. Yet, ground truth
data of registered clothes is currently unavailable in the required resolution
and accuracy for training telepresence models for realistic cloth animation.
Here, we propose an end-to-end pipeline for building drivable representations
for clothing. The core of our approach is a multi-view patterned cloth tracking
algorithm capable of capturing deformations with high accuracy. We further rely
on the high-quality data produced by our tracking method to build a Garment
Avatar: an expressive and fully-drivable geometry model for a piece of
clothing. The resulting model can be animated using a sparse set of views and
produces highly realistic reconstructions which are faithful to the driving
signals. We demonstrate the efficacy of our pipeline on a realistic virtual
telepresence application, where a garment is being reconstructed from two
views, and a user can pick and swap garment design as they wish. In addition,
we show a challenging scenario when driven exclusively with body pose, our
drivable garment avatar is capable of producing realistic cloth geometry of
significantly higher quality than the state-of-the-art.
- Abstract(参考訳): 仮想テレプレゼンスは、オンラインコミュニケーションの未来である。
衣服は個人のアイデンティティと自己表現の重要な部分である。
しかし、現実的な布のアニメーションのためのテレプレゼンスモデルの訓練に必要な解像度と精度では、現在、登録された衣服の真実データが利用できない。
本稿では,衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
提案手法のコアとなるのは,高精度に変形をキャプチャできる多視点パターン追跡アルゴリズムである。
さらに,この追跡手法によって得られた高品質なデータを活用して,衣服のアバターを製作する。
得られたモデルはスパースビューを用いてアニメーションすることができ、駆動信号に忠実な非常に現実的な再構成を生成する。
2つのビューから衣料品を再構築し,ユーザが希望通りに衣料品のデザインを選択・交換できる現実的仮想テレプレゼンスアプリケーションにおいて,パイプラインの有効性を実証する。
また,身体的姿勢のみに駆り立てられる場合の難解なシナリオを示すとともに,着衣のアバターは,最先端よりも極めて高品質な現実的な布の形状を作り出すことができる。
関連論文リスト
- Garment Animation NeRF with Color Editing [6.357662418254495]
そこで本稿では, 明示的な衣料プロキシを必要とせずに, 身体動作系列から衣料アニメーションを合成する手法を提案する。
本手法は, 体の動きから衣服の動的特徴を推定し, 衣服構造を概観する。
身体の動きやカメラの視界にまたがる手法の一般化性を実証し、詳細な構造的整合性を確保する。
論文 参考訳(メタデータ) (2024-07-29T08:17:05Z) - Towards High-Quality 3D Motion Transfer with Realistic Apparel Animation [69.36162784152584]
本研究では,現実的なアパレルアニメーションを用いた高品質な動き伝達を目的とした新しい手法を提案する。
本稿では,2つのニューラル変形モジュールを介し,物体とアパレルの変形を学習するデータ駆動パイプラインを提案する。
本手法は各種アパレルの品質に優れた結果をもたらす。
論文 参考訳(メタデータ) (2024-07-15T22:17:35Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset [5.260305201345232]
そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-06-24T08:57:36Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。