論文の概要: FreeCloth: Free-form Generation Enhances Challenging Clothed Human Modeling
- arxiv url: http://arxiv.org/abs/2411.19942v2
- Date: Thu, 20 Mar 2025 07:24:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:32:02.836827
- Title: FreeCloth: Free-form Generation Enhances Challenging Clothed Human Modeling
- Title(参考訳): FreeCloth: フリーフォーム生成は、人間の衣服をモデル化する
- Authors: Hang Ye, Xiaoxuan Ma, Hai Ci, Wentao Zhu, Yizhou Wang,
- Abstract要約: FreeClothは、挑戦的な人間をモデル化するための新しいハイブリッドフレームワークである。
私たちは人体を3つのカテゴリに分類します。
FreeClothは、より優れた視覚的忠実さとリアリズムで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 20.33405634831369
- License:
- Abstract: Achieving realistic animated human avatars requires accurate modeling of pose-dependent clothing deformations. Existing learning-based methods heavily rely on the Linear Blend Skinning (LBS) of minimally-clothed human models like SMPL to model deformation. However, they struggle to handle loose clothing, such as long dresses, where the canonicalization process becomes ill-defined when the clothing is far from the body, leading to disjointed and fragmented results. To overcome this limitation, we propose FreeCloth, a novel hybrid framework to model challenging clothed humans. Our core idea is to use dedicated strategies to model different regions, depending on whether they are close to or distant from the body. Specifically, we segment the human body into three categories: unclothed, deformed, and generated. We simply replicate unclothed regions that require no deformation. For deformed regions close to the body, we leverage LBS to handle the deformation. As for the generated regions, which correspond to loose clothing areas, we introduce a novel free-form, part-aware generator to model them, as they are less affected by movements. This free-form generation paradigm brings enhanced flexibility and expressiveness to our hybrid framework, enabling it to capture the intricate geometric details of challenging loose clothing, such as skirts and dresses. Experimental results on the benchmark dataset featuring loose clothing demonstrate that FreeCloth achieves state-of-the-art performance with superior visual fidelity and realism, particularly in the most challenging cases.
- Abstract(参考訳): リアルなアニメーション人間のアバターを得るには、ポーズ依存の衣服の変形を正確にモデル化する必要がある。
既存の学習ベースの手法は、変形をモデル化するためにSMPLのような最小限の閉じた人間のモデルの線形ブレンドスキニング(LBS)に大きく依存している。
しかし、ロングドレスのようなゆるい衣服を扱うのに苦労し、服が体から遠く離れているときに正統化のプロセスが不明確になり、解離して断片化された結果をもたらす。
この制限を克服するために、我々は、挑戦的な服を着た人間をモデル化する新しいハイブリッドフレームワーク、FreeClothを提案する。
私たちの中核となる考え方は、身体に近いか遠いかによって、異なる領域をモデル化するための専用の戦略を使うことです。
具体的には、人間の体を3つのカテゴリに分けます。
変形を必要としない非閉鎖領域を単純に複製する。
物体近傍の変形領域に対しては,変形の処理にLBSを利用する。
ゆるやかな衣服領域に対応する生成領域については,動作の影響が少ないため,新しいフリーフォームのパートアウェアジェネレータを導入してモデル化する。
このフリーフォーム生成パラダイムは、当社のハイブリッドフレームワークに柔軟性と表現性を向上させ、スカートやドレスなどのゆるい衣服の複雑な幾何学的詳細をキャプチャすることを可能にする。
ゆるい衣服を特徴とするベンチマークデータセットの実験結果は、特に最も困難なケースにおいて、FreeClothが優れた視覚的忠実さとリアリズムで最先端のパフォーマンスを達成することを示す。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Neural-ABC: Neural Parametric Models for Articulated Body with Clothes [29.04941764336255]
本稿では, 身元, 衣服, 形状, ポーズなど, ゆがみのない空間で衣服を表現できる新しいモデルであるNeural-ABCを紹介する。
我々のモデルは、衣服のスタイルを保ちながら、異なる形状の衣服とアイデンティティとポーズを両立させることに優れています。
他の最先端のパラメトリックモデルと比較すると、Neural-ABCは人間の衣服を復元する上で強力なアドバンテージを示している。
論文 参考訳(メタデータ) (2024-04-06T16:29:10Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - A Two-stage Personalized Virtual Try-on Framework with Shape Control and
Texture Guidance [7.302929117437442]
本稿では,2段階(形状制御とテクスチャガイダンス)を用いて衣服属性を分離する,新しい仮想試行モデル(PE-VITON)を提案する。
提案モデルでは, 衣服の折り畳みの弱さ, 複雑な姿勢下での創出効果の低下, 衣服のぼやけた縁, 従来の試行法では不明瞭なテクスチャスタイルを効果的に解決することができる。
論文 参考訳(メタデータ) (2023-12-24T13:32:55Z) - DLCA-Recon: Dynamic Loose Clothing Avatar Reconstruction from Monocular
Videos [15.449755248457457]
本研究では,モノクロビデオからヒトアバターを作成するDLCA-Recon法を提案する。
ゆるい服から下半身までの距離は、人間が自由に動き、行動するとき、フレームごとに急速に変化する。
本手法は,SOTA法と比較して,衣服がゆるい人間に対して優れた結果が得られる。
論文 参考訳(メタデータ) (2023-12-19T12:19:20Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - Neural Point-based Shape Modeling of Humans in Challenging Clothing [75.75870953766935]
SMPLのようなパラメトリックな3Dボディモデルは、最小限の衣服だけを表現し、衣服に拡張するのは難しい。
我々は、正準化を学習されたポーズ非依存の「粗い形状」に置き換える粗い段階で点ベースの手法を拡張する。
このアプローチは、身体に適合し、脱落する衣服に対してうまく機能する。
論文 参考訳(メタデータ) (2022-09-14T17:59:17Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - Neural-GIF: Neural Generalized Implicit Functions for Animating People
in Clothing [49.32522765356914]
私たちは、身体のポーズの関数として、服装の人々をアニメーションすることを学びます。
我々は、学習された変形場を非剛性効果のモデルに適用した、空間のすべての点を標準空間にマッピングすることを学ぶ。
ニューラルGIFは生の3Dスキャンに基づいてトレーニングし、詳細な複雑な表面形状と変形を再構築することができる。
論文 参考訳(メタデータ) (2021-08-19T17:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。