論文の概要: Neural Garment Dynamic Super-Resolution
- arxiv url: http://arxiv.org/abs/2412.06285v1
- Date: Mon, 09 Dec 2024 08:13:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:53:17.659191
- Title: Neural Garment Dynamic Super-Resolution
- Title(参考訳): ニューラルガーメントダイナミックスーパーリゾリューション
- Authors: Meng Zhang, Jun Li,
- Abstract要約: 衣服の動的超解像のための学習に基づく手法を提案する。
低分解能な衣服シミュレーションにおいて、高分解能で高周波の細部を効率的に向上するように設計されている。
最先端の代替手段に対する大幅な改善を示す。
- 参考スコア(独自算出の注目度): 6.539708325630558
- License:
- Abstract: Achieving efficient, high-fidelity, high-resolution garment simulation is challenging due to its computational demands. Conversely, low-resolution garment simulation is more accessible and ideal for low-budget devices like smartphones. In this paper, we introduce a lightweight, learning-based method for garment dynamic super-resolution, designed to efficiently enhance high-resolution, high-frequency details in low-resolution garment simulations. Starting with low-resolution garment simulation and underlying body motion, we utilize a mesh-graph-net to compute super-resolution features based on coarse garment dynamics and garment-body interactions. These features are then used by a hyper-net to construct an implicit function of detailed wrinkle residuals for each coarse mesh triangle. Considering the influence of coarse garment shapes on detailed wrinkle performance, we correct the coarse garment shape and predict detailed wrinkle residuals using these implicit functions. Finally, we generate detailed high-resolution garment geometry by applying the detailed wrinkle residuals to the corrected coarse garment. Our method enables roll-out prediction by iteratively using its predictions as input for subsequent frames, producing fine-grained wrinkle details to enhance the low-resolution simulation. Despite training on a small dataset, our network robustly generalizes to different body shapes, motions, and garment types not present in the training data. We demonstrate significant improvements over state-of-the-art alternatives, particularly in enhancing the quality of high-frequency, fine-grained wrinkle details.
- Abstract(参考訳): 効率的で高忠実で高解像度な衣料シミュレーションを実現することは、その計算要求のために困難である。
逆に、低解像度の衣服シミュレーションは、スマートフォンのような低予算デバイスにとってよりアクセスしやすく、理想的だ。
本稿では,低分解能な衣料シミュレーションにおいて,高分解能,高周波数の細部を効率的に向上する,軽量な動的動的超解法を提案する。
低分解能な衣料シミュレーションと基礎となる体の動きから始めると、メッシュグラフネットを用いて、粗い衣料動態と衣料品と相互作用に基づく超解像特性を計算する。
これらの特徴はハイパーネットによって各粗いメッシュ三角形の細いしわ残差の暗黙的な関数を構築するために使用される。
粗い衣服形状が細かなしわ性能に与える影響を考慮し、粗い衣服形状を補正し、これらの暗黙の関数を用いて細かなしわ残差を予測する。
最後に,修正した粗い衣服に細かなしわ残差を施すことにより,細かな高分解能な衣服形状を生成する。
提案手法は, その後のフレームの入力として繰り返し予測を使用すればロールアウト予測が可能であり, 低分解能シミュレーションの精度を高めるために, きず細部を細部まで細部まで細部まで再現できる。
小さなデータセットのトレーニングにもかかわらず、トレーニングデータに存在しないさまざまな体形、動き、衣服タイプに、我々のネットワークはしっかりと一般化している。
我々は最先端の代替品、特に高周波できめ細かなきめ細部の品質向上に有意な改善をみせている。
関連論文リスト
- FitDiT: Advancing the Authentic Garment Details for High-fidelity Virtual Try-on [73.13242624924814]
Diffusion Transformer (DiT) を用いた高忠実度仮想試行用ガーメント知覚増強技術FitDiT
布地テクスチャ抽出装置を導入し, 布地や模様, テクスチャなどのリッチな細部を, よりよく捉えられるようにした。
また,クロスカテゴリー試着中にマスク領域全体を埋める衣服の発生を防止し,衣料の正しい長さに適応する拡張緩和マスク戦略を採用した。
論文 参考訳(メタデータ) (2024-11-15T11:02:23Z) - AnyFit: Controllable Virtual Try-on for Any Combination of Attire Across Any Scenario [50.62711489896909]
AnyFitは、高解像度のベンチマークと実世界のデータのベースラインを、大きなギャップで上回っている。
AnyFitの高忠実度バーチャル試作品における印象的なパフォーマンスは、あらゆるイメージから見ても、ファッションコミュニティにおける将来の研究の新たな道を切り開くものです。
論文 参考訳(メタデータ) (2024-05-28T13:33:08Z) - Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition [4.627632792164547]
本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
論文 参考訳(メタデータ) (2023-12-22T11:26:51Z) - SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments [6.821050909555717]
本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
論文 参考訳(メタデータ) (2023-08-05T09:09:50Z) - MultiScale MeshGraphNets [65.26373813797409]
我々はMeshGraphNetsからフレームワークを改善するための2つの補完的なアプローチを提案する。
まず、より粗いメッシュ上で高解像度システムの正確なサロゲートダイナミクスを学習できることを実証する。
次に、2つの異なる解像度でメッセージを渡す階層的アプローチ(MultiScale MeshGraphNets)を導入する。
論文 参考訳(メタデータ) (2022-10-02T20:16:20Z) - Predicting Loose-Fitting Garment Deformations Using Bone-Driven Motion
Networks [63.596602299263935]
本稿では,骨駆動型モーションネットワークを用いて,ゆるやかな衣服メッシュの変形を対話的に予測する学習アルゴリズムを提案する。
提案手法は,メッシュ変形の予測精度を約20%,ハウスドルフ距離とSTEDで約10%向上させる。
論文 参考訳(メタデータ) (2022-05-03T07:54:39Z) - Detail-aware Deep Clothing Animations Infused with Multi-source
Attributes [1.6400484152578603]
本稿では,様々な形状の身体が様々なアニメーションで着用する衣服に対して,豊かで合理的な精密な変形を生成するための,新しい学習ベースの衣服変形法を提案する。
異なる衣服のトポロジやポーズを訓練した多数のモデルを必要とする既存の学習手法とは対照的に,我々は統合された枠組みを用いて,高忠実度変形を効率的かつ容易に生成する。
実験結果から,提案手法は既存手法よりも性能が向上し,性能の最適化や細部の品質向上が図られている。
論文 参考訳(メタデータ) (2021-12-15T08:50:49Z) - Deep Deformation Detail Synthesis for Thin Shell Models [47.442883859643004]
物理ベースの布アニメーションでは、高価な計算リソースと巨大な労働調整のコストで豊富な折り畳みと詳細なしわが達成されます。
我々は,低分解能メッシュから詳細なメッシュへのマッピングを学ぶために,時間的および空間的に整合可能な変形表現(ts-acap)と変形変換ネットワークを開発した。
提案手法は, 物理シミュレーションより1035倍高速で, 既存の手法よりも高精度な合成能力を有する, 様々なフレームレートで, 信頼性の高いリアルなアニメーションを作成できる。
論文 参考訳(メタデータ) (2021-02-23T08:09:11Z) - Interpretable Detail-Fidelity Attention Network for Single Image
Super-Resolution [89.1947690981471]
本研究では,スムースとディテールを段階的に分割・収束的に処理する,目的・解釈可能なディテール・ファイダリティ・アテンション・ネットワークを提案する。
特に,詳細推論において顕著な解釈可能な特徴表現のためのヘシアンフィルタを提案する。
実験により,提案手法は最先端手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2020-09-28T08:31:23Z) - Fully Convolutional Graph Neural Networks for Parametric Virtual Try-On [9.293488420613148]
完全畳み込みグラフニューラルネットワークに基づく仮想試行アプリケーションのための学習に基づくアプローチを提案する。
特定の衣服やメッシュトポロジーのために訓練された既存のデータ駆動モデルとは対照的に、私たちの完全な畳み込みモデルは、大きな種類の衣服を扱うことができる。
内部では、3つの異なる変形源を分離し、衣服のフィットを条件にすることで、3D衣服のドレープを学習する新しい幾何学的深層学習手法が提案されている。
論文 参考訳(メタデータ) (2020-09-09T22:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。