論文の概要: Quaffure: Real-Time Quasi-Static Neural Hair Simulation
- arxiv url: http://arxiv.org/abs/2412.10061v1
- Date: Fri, 13 Dec 2024 11:44:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 15:01:54.683460
- Title: Quaffure: Real-Time Quasi-Static Neural Hair Simulation
- Title(参考訳): Quaffure: リアルタイム準静的ニューラルヘアシミュレーション
- Authors: Tuur Stuyck, Gene Wei-Chin Lin, Egor Larionov, Hsiao-yu Chen, Aljaz Bozic, Nikolaos Sarafianos, Doug Roble,
- Abstract要約: 本稿では,様々な身体のポーズ,形状,髪型に一般化した髪の変形を予測する新しいニューラルアプローチを提案する。
我々のモデルは自己監督的損失を用いて訓練されており、高価なデータ生成とストレージの必要性を排除している。
我々のアプローチは、コンシューマハードウェア上で数ミリ秒の推論時間しか持たないリアルタイムアプリケーションに非常に適しています。
- 参考スコア(独自算出の注目度): 11.869362129320473
- License:
- Abstract: Realistic hair motion is crucial for high-quality avatars, but it is often limited by the computational resources available for real-time applications. To address this challenge, we propose a novel neural approach to predict physically plausible hair deformations that generalizes to various body poses, shapes, and hairstyles. Our model is trained using a self-supervised loss, eliminating the need for expensive data generation and storage. We demonstrate our method's effectiveness through numerous results across a wide range of pose and shape variations, showcasing its robust generalization capabilities and temporally smooth results. Our approach is highly suitable for real-time applications with an inference time of only a few milliseconds on consumer hardware and its ability to scale to predicting the drape of 1000 grooms in 0.3 seconds.
- Abstract(参考訳): 現実的なヘアモーションは高品質なアバターには不可欠であるが、リアルタイムアプリケーションで利用可能な計算資源によって制限されることが多い。
この課題に対処するために, 様々な身体のポーズ, 形状, 髪型に一般化した, 物理的に可塑性な毛髪変形を予測する新しい神経アプローチを提案する。
我々のモデルは自己監督的損失を用いて訓練されており、高価なデータ生成とストレージの必要性を排除している。
提案手法の有効性を多種多様なポーズや形状のバリエーションを通じて実証し,その頑健な一般化能力と時間的スムーズな結果を示す。
我々のアプローチは、コンシューマハードウェア上でわずか数ミリ秒の推論時間を持つリアルタイムアプリケーションに非常に適しており、0.3秒で1000人の新郎のドレープを予測することができる。
関連論文リスト
- Hairmony: Fairness-aware hairstyle classification [10.230933455074634]
本稿では,人物の髪型を1つの画像から予測する手法を提案する。
モデルをトレーニングするために、合成データのみを使用します。
ドメインエキスパートの多様なグループと共同で開発された,新しい髪型分類法を導入する。
論文 参考訳(メタデータ) (2024-10-15T12:00:36Z) - Dr.Hair: Reconstructing Scalp-Connected Hair Strands without Pre-training via Differentiable Rendering of Line Segments [23.71057752711745]
映画やゲーム業界では、現実的な髪型を達成するには、頭皮由来の鎖を使うのが一般的である。
本研究では,事前学習の必要性を解消する最適化手法を提案する。
提案手法は,既存の手法の精度を越え,処理速度を大幅に向上させるとともに,堅牢かつ高精度な逆レンダリングを実現する。
論文 参考訳(メタデータ) (2024-03-26T08:53:25Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - A Local Appearance Model for Volumetric Capture of Diverse Hairstyle [15.122893482253069]
ヘアは個人のアイデンティティと外観において重要な役割を担い、高品質で光現実主義的なアバターの重要な構成要素となっている。
既存のアプローチでは、顔領域のみをモデル化するか、パーソナライズされたモデルに依存し、一般化性とスケーラビリティを制限している。
ヘアスタイルの多彩な高忠実アバターを創出する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-12-14T06:29:59Z) - Real-time volumetric rendering of dynamic humans [83.08068677139822]
本研究では,モノクラービデオから動的人間の高速3次元再構成とリアルタイムレンダリングを行う手法を提案する。
提案手法は, 72時間を要する最近の最先端の代替技術と比較して, 3時間未満で動的人間を1つのGPUで再構築することができる。
新たなローカル光線マーチングレンダリングにより、モバイルVRデバイス上で、視覚的品質の損失を最小限に抑えて、ニューラルヒューマンを毎秒40フレームで可視化することができる。
論文 参考訳(メタデータ) (2023-03-21T14:41:25Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture [11.645769995924548]
ライフスタイルの毛髪を捕えることは、その微細な幾何学的構造、複雑な物理的相互作用、そして非自明な視覚的外観のために特に困難である。
本稿では,数千のプリミティブで構成された斬新な容積表現を用いる。
提案手法は,記録されたマルチビューシーケンスのリアルなレンダリングを生成するだけでなく,新しい制御信号を提供することで,新しいヘア構成のレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-13T18:57:50Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - MetaAvatar: Learning Animatable Clothed Human Models from Few Depth
Images [60.56518548286836]
新規な入力ポーズから現実的な布の変形を生成するには、通常、水密メッシュや高密度フルボディスキャンが入力として必要とされる。
本研究では, 単眼深度画像のみを考慮し, 制御可能なニューラルSDFとして表現された, リアルな衣服付きアバターを迅速に生成する手法を提案する。
論文 参考訳(メタデータ) (2021-06-22T17:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。