論文の概要: Detail-aware Deep Clothing Animations Infused with Multi-source
Attributes
- arxiv url: http://arxiv.org/abs/2112.07974v1
- Date: Wed, 15 Dec 2021 08:50:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 17:29:34.498393
- Title: Detail-aware Deep Clothing Animations Infused with Multi-source
Attributes
- Title(参考訳): マルチソース属性を取り入れた細部認識深着アニメーション
- Authors: Tianxing Li, Rui Shi, Takashi Kanai
- Abstract要約: 本稿では,様々な形状の身体が様々なアニメーションで着用する衣服に対して,豊かで合理的な精密な変形を生成するための,新しい学習ベースの衣服変形法を提案する。
異なる衣服のトポロジやポーズを訓練した多数のモデルを必要とする既存の学習手法とは対照的に,我々は統合された枠組みを用いて,高忠実度変形を効率的かつ容易に生成する。
実験結果から,提案手法は既存手法よりも性能が向上し,性能の最適化や細部の品質向上が図られている。
- 参考スコア(独自算出の注目度): 1.6400484152578603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel learning-based clothing deformation method to
generate rich and reasonable detailed deformations for garments worn by bodies
of various shapes in various animations. In contrast to existing learning-based
methods, which require numerous trained models for different garment topologies
or poses and are unable to easily realize rich details, we use a unified
framework to produce high fidelity deformations efficiently and easily. To
address the challenging issue of predicting deformations influenced by
multi-source attributes, we propose three strategies from novel perspectives.
Specifically, we first found that the fit between the garment and the body has
an important impact on the degree of folds. We then designed an attribute
parser to generate detail-aware encodings and infused them into the graph
neural network, therefore enhancing the discrimination of details under diverse
attributes. Furthermore, to achieve better convergence and avoid overly smooth
deformations, we proposed output reconstruction to mitigate the complexity of
the learning task. Experiment results show that our proposed deformation method
achieves better performance over existing methods in terms of generalization
ability and quality of details.
- Abstract(参考訳): 本稿では,様々な形状の身体で身に着ける衣服のリッチで合理的な変形を再現する新しい学習ベースの衣料変形法を提案する。
異なる衣服のトポロジやポーズに対して多くの訓練されたモデルを必要とする既存の学習ベース手法とは対照的に,我々は統合された枠組みを用いて高忠実度変形を効率的かつ容易に生成する。
マルチソース属性による変形予測の課題に対処するため,新しい視点から3つの戦略を提案する。
具体的には、衣服と体の間のフィットが折りたたみの程度に重要な影響を与えることを発見した。
次に、属性パーサを設計し、詳細を意識したエンコーディングを生成し、それらをグラフニューラルネットワークに注入することで、様々な属性の下で詳細を識別する。
さらに,より収束性を高め,過度に滑らかな変形を避けるために,学習課題の複雑さを軽減するために出力再構成を提案する。
実験の結果,提案手法は一般化能力と細部品質の面で既存の手法よりも優れた性能が得られることがわかった。
関連論文リスト
- Multi-aspect Knowledge Distillation with Large Language Model [2.317771311576205]
マルチモーダル大言語モデル(MLLM)を用いた多視点知識蒸留法を提案する。
主に画像分類に適用し,モデルの拡張の可能性を探るため,オブジェクト検出などのタスクに拡張する。
論文 参考訳(メタデータ) (2025-01-23T02:45:35Z) - Neural Garment Dynamic Super-Resolution [6.539708325630558]
衣服の動的超解像のための学習に基づく手法を提案する。
低分解能な衣服シミュレーションにおいて、高分解能で高周波の細部を効率的に向上するように設計されている。
最先端の代替手段に対する大幅な改善を示す。
論文 参考訳(メタデータ) (2024-12-09T08:13:38Z) - Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition [4.627632792164547]
本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
論文 参考訳(メタデータ) (2023-12-22T11:26:51Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - Semantic-Aware Implicit Template Learning via Part Deformation
Consistency [18.63665468429503]
意味論的に妥当な変形を可能にする意味認識型暗黙テンプレート学習フレームワークを提案する。
自己教師付き特徴抽出器からのセマンティクスの事前利用により,新しいセマンティクス対応変形符号を用いた局所条件付けを提案する。
本実験は,様々なタスクにおいて,ベースラインよりも提案手法の方が優れていることを示す。
論文 参考訳(メタデータ) (2023-08-23T05:02:17Z) - SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments [6.821050909555717]
本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
論文 参考訳(メタデータ) (2023-08-05T09:09:50Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - Multiscale Mesh Deformation Component Analysis with Attention-based
Autoencoders [49.62443496989065]
重み付けされたアテンションベースオートエンコーダを用いて, マルチスケール変形成分を精度良く自動生成する手法を提案する。
このアテンション機構は、アクティブな変形領域において、軟弱なマルチスケール変形成分を学習するように設計されている。
提案手法では,新しい形状の効果的なモデリングを容易にするために,粗い形状で形状を編集することができる。
論文 参考訳(メタデータ) (2020-12-04T08:30:57Z) - Explainable Recommender Systems via Resolving Learning Representations [57.24565012731325]
説明はユーザー体験を改善し、システムの欠陥を発見するのに役立つ。
本稿では,表現学習プロセスの透明性を向上させることによって,説明可能な新しい推薦モデルを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:30:48Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。