論文の概要: SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments
- arxiv url: http://arxiv.org/abs/2308.02827v1
- Date: Sat, 5 Aug 2023 09:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 18:30:13.313919
- Title: SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments
- Title(参考訳): SwinGar: フリースウィングガーメントのためのスペクトル誘起ニューラル動的変形
- Authors: Tianxing Li, Rui Shi, Qing Zhu, Takashi Kanai
- Abstract要約: 本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
- 参考スコア(独自算出の注目度): 6.821050909555717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our work presents a novel spectrum-inspired learning-based approach for
generating clothing deformations with dynamic effects and personalized details.
Existing methods in the field of clothing animation are limited to either
static behavior or specific network models for individual garments, which
hinders their applicability in real-world scenarios where diverse animated
garments are required. Our proposed method overcomes these limitations by
providing a unified framework that predicts dynamic behavior for different
garments with arbitrary topology and looseness, resulting in versatile and
realistic deformations. First, we observe that the problem of bias towards low
frequency always hampers supervised learning and leads to overly smooth
deformations. To address this issue, we introduce a frequency-control strategy
from a spectral perspective that enhances the generation of high-frequency
details of the deformation. In addition, to make the network highly
generalizable and able to learn various clothing deformations effectively, we
propose a spectral descriptor to achieve a generalized description of the
global shape information. Building on the above strategies, we develop a
dynamic clothing deformation estimator that integrates frequency-controllable
attention mechanisms with long short-term memory. The estimator takes as input
expressive features from garments and human bodies, allowing it to
automatically output continuous deformations for diverse clothing types,
independent of mesh topology or vertex count. Finally, we present a neural
collision handling method to further enhance the realism of garments. Our
experimental results demonstrate the effectiveness of our approach on a variety
of free-swinging garments and its superiority over state-of-the-art methods.
- Abstract(参考訳): 本研究は,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するための,スペクトルに基づく新しい学習手法を提案する。
衣料アニメーションの分野における既存の手法は、静的な行動または個々の衣料品の特定のネットワークモデルに限られており、多様な衣料が要求される現実のシナリオにおける適用性を妨げている。
提案手法は,任意のトポロジとゆるみを持つ異なる衣服の動的挙動を予測する統一的なフレームワークを提供することにより,これらの制約を克服する。
まず,低周波に対するバイアス問題は常に教師あり学習を阻害し,過度に滑らかな変形をもたらすことを観察する。
この問題に対処するために、スペクトルの観点から周波数制御戦略を導入し、変形の高周波詳細を生成する。
また,ネットワークを高度に一般化し,様々な衣料変形を効果的に学習できるようにするため,グローバル形状情報の一般化記述を実現するスペクトル記述子を提案する。
以上の戦略に基づき,周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
推定器は、衣服や人体から入力された表現的特徴を取り入れ、メッシュトポロジーや頂点数によらず、さまざまな衣服の連続的な変形を自動的に出力する。
最後に,衣服の現実性をさらに高めるための神経衝突処理手法を提案する。
実験により, 各種フリースウィング服に対するアプローチの有効性と, 最先端の手法よりも優れていることを示した。
関連論文リスト
- AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - Neural Garment Dynamics via Manifold-Aware Transformers [26.01911475040001]
我々は異なるアプローチを採り、下層の人体との局所的な相互作用を利用して衣服のダイナミクスをモデル化する。
具体的には、身体が動くと局所的な衣服と体の衝突を検出し、衣服の変形を駆動する。
我々のアプローチの核心はメッシュ非依存の衣服表現と多様体対応トランスフォーマーネットワーク設計である。
論文 参考訳(メタデータ) (2024-05-13T11:05:52Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition [4.627632792164547]
本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
論文 参考訳(メタデータ) (2023-12-22T11:26:51Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - Towards Multi-Layered 3D Garments Animation [135.77656965678196]
既存のアプローチは主に、人間の体だけによって駆動される単層衣服に焦点を合わせ、一般的なシナリオを扱うのに苦労している。
本研究では,マイクロ物理システムにおける粒子間相互作用として,衣服レベルのアニメーションをモデル化するための新しいデータ駆動手法であるLayersNetを提案する。
実験の結果,LayersNetは定量的にも定性的にも優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:53:04Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - Detail-aware Deep Clothing Animations Infused with Multi-source
Attributes [1.6400484152578603]
本稿では,様々な形状の身体が様々なアニメーションで着用する衣服に対して,豊かで合理的な精密な変形を生成するための,新しい学習ベースの衣服変形法を提案する。
異なる衣服のトポロジやポーズを訓練した多数のモデルを必要とする既存の学習手法とは対照的に,我々は統合された枠組みを用いて,高忠実度変形を効率的かつ容易に生成する。
実験結果から,提案手法は既存手法よりも性能が向上し,性能の最適化や細部の品質向上が図られている。
論文 参考訳(メタデータ) (2021-12-15T08:50:49Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。