論文の概要: Learning 3D Garment Animation from Trajectories of A Piece of Cloth
- arxiv url: http://arxiv.org/abs/2501.01393v1
- Date: Thu, 02 Jan 2025 18:09:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:12:29.866827
- Title: Learning 3D Garment Animation from Trajectories of A Piece of Cloth
- Title(参考訳): 布片の軌跡から3次元ガーメントアニメーションを学習する
- Authors: Yidi Shao, Chen Change Loy, Bo Dai,
- Abstract要約: ガーメントアニメーションは、仮想現実、ゲーム、映画制作など、様々な用途で広く使われている。
観察された衣服の変形を模倣するために、データ駆動法は大規模な衣服データを必要とする。
本稿では,衣服に関する教師あり学習の代わりに,観察された衣服をアニメーションする方法を学ぶために,ゆがみのあるスキームを採用する。
- 参考スコア(独自算出の注目度): 60.10847645998295
- License:
- Abstract: Garment animation is ubiquitous in various applications, such as virtual reality, gaming, and film producing. Recently, learning-based approaches obtain compelling performance in animating diverse garments under versatile scenarios. Nevertheless, to mimic the deformations of the observed garments, data-driven methods require large scale of garment data, which are both resource-wise expensive and time-consuming. In addition, forcing models to match the dynamics of observed garment animation may hinder the potentials to generalize to unseen cases. In this paper, instead of using garment-wise supervised-learning we adopt a disentangled scheme to learn how to animate observed garments: 1). learning constitutive behaviors from the observed cloth; 2). dynamically animate various garments constrained by the learned constitutive laws. Specifically, we propose Energy Unit network (EUNet) to model the constitutive relations in the format of energy. Without the priors from analytical physics models and differentiable simulation engines, EUNet is able to directly capture the constitutive behaviors from the observed piece of cloth and uniformly describes the change of energy caused by deformations, such as stretching and bending. We further apply the pre-trained EUNet to animate various garments based on energy optimizations. The disentangled scheme alleviates the need of garment data and enables us to utilize the dynamics of a piece of cloth for animating garments. Experiments show that while EUNet effectively delivers the energy gradients due to the deformations, models constrained by EUNet achieve more stable and physically plausible performance comparing with those trained in garment-wise supervised manner. Code is available at https://github.com/ftbabi/EUNet_NeurIPS2024.git .
- Abstract(参考訳): ガーメントアニメーションは、仮想現実、ゲーム、映画制作など、様々な用途で広く使われている。
近年,多目的シナリオ下での多様な衣服のアニメーション化において,学習に基づくアプローチは魅力的な性能を得る。
それでも、観測された衣服の変形を模倣するためには、データ駆動方式は膨大な量の衣服データを必要とする。
さらに、観察された衣服のアニメーションのダイナミックスに合わせるよう強制するモデルは、目に見えないケースに一般化する可能性を妨げる可能性がある。
本稿では,衣服に関する教師あり学習の代わりに,観察された衣服をアニメーションする方法を学ぶために,ゆがみのあるスキームを採用する。
観察された布から構成的行動を学ぶこと。
学習された構成法で制約された様々な衣服を動的にアニメーションする。
具体的には、エネルギーの形式における構成的関係をモデル化するエネルギーユニットネットワーク(EUNet)を提案する。
解析物理学モデルや微分可能なシミュレーションエンジンの先行がなければ、EUNetは観察された布から構成的な挙動を直接捉え、伸縮や曲げなどの変形によって生じるエネルギーの変化を均一に記述することができる。
さらに、トレーニング済みのEUNetを用いて、エネルギー最適化に基づいて様々な衣服をアニメーションする。
本手法は,衣料データの必要性を軽減し,衣料品のアニメーション化に布のダイナミックスを利用することを可能にする。
実験により、EUNetは変形によるエネルギー勾配を効果的に達成するが、EUNetによって制約されたモデルは、衣服的に監督された方法で訓練されたものと比較して、より安定で物理的に妥当な性能を達成することが示されている。
コードはhttps://github.com/ftbabi/EUNet_NeurIPS2024.gitで公開されている。
関連論文リスト
- Garment Animation NeRF with Color Editing [6.357662418254495]
そこで本稿では, 明示的な衣料プロキシを必要とせずに, 身体動作系列から衣料アニメーションを合成する手法を提案する。
本手法は, 体の動きから衣服の動的特徴を推定し, 衣服構造を概観する。
身体の動きやカメラの視界にまたがる手法の一般化性を実証し、詳細な構造的整合性を確保する。
論文 参考訳(メタデータ) (2024-07-29T08:17:05Z) - Towards High-Quality 3D Motion Transfer with Realistic Apparel Animation [69.36162784152584]
本研究では,現実的なアパレルアニメーションを用いた高品質な動き伝達を目的とした新しい手法を提案する。
本稿では,2つのニューラル変形モジュールを介し,物体とアパレルの変形を学習するデータ駆動パイプラインを提案する。
本手法は各種アパレルの品質に優れた結果をもたらす。
論文 参考訳(メタデータ) (2024-07-15T22:17:35Z) - PICA: Physics-Integrated Clothed Avatar [30.277983921620663]
PICAは, 物理学的精度のよい, 高忠実でアニマタブルな人間のアバターを, ゆるやかな衣服でも表現できる新しい表現法である。
提案手法は, 複雑で斬新な運転ポーズにおいて, 人体の高忠実なレンダリングを実現し, 従来手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-07T10:23:21Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments [6.821050909555717]
本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
論文 参考訳(メタデータ) (2023-08-05T09:09:50Z) - Towards Multi-Layered 3D Garments Animation [135.77656965678196]
既存のアプローチは主に、人間の体だけによって駆動される単層衣服に焦点を合わせ、一般的なシナリオを扱うのに苦労している。
本研究では,マイクロ物理システムにおける粒子間相互作用として,衣服レベルのアニメーションをモデル化するための新しいデータ駆動手法であるLayersNetを提案する。
実験の結果,LayersNetは定量的にも定性的にも優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-05-17T17:53:04Z) - Dynamic Neural Garments [45.833166320896716]
本稿では,身体の関節運動を取り込み,リアルな動的衣服画像列を直接生成する解を提案する。
具体的には, アバターの目標関節運動列を考慮し, ダイナミック・ニューラル・ウェアスを提案し, プラウシブル・ダイナミック・ウェアスの外観をシミュレートし, レンダリングする。
論文 参考訳(メタデータ) (2021-02-23T17:21:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。