論文の概要: HairFormer: Transformer-Based Dynamic Neural Hair Simulation
- arxiv url: http://arxiv.org/abs/2507.12600v1
- Date: Wed, 16 Jul 2025 19:42:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.25856
- Title: HairFormer: Transformer-Based Dynamic Neural Hair Simulation
- Title(参考訳): HairFormer: トランスフォーマーに基づく動的ニューラルヘアシミュレーション
- Authors: Joy Xiaoji Zhang, Jingsen Zhu, Hanyu Chen, Steve Marschner,
- Abstract要約: 本稿では,任意のヘアスタイルの静的ドレープ形状を予測するトランスフォーマーを用いた静的ネットワークを提案する。
新規なクロスアテンション機構を持つ動的ネットワークは、静的毛髪特徴とキネマティック入力を融合して表現力学を生成する。
本手法は,物理インフォームド・ロスの導出により,多種多様なスタイルにまたがる高忠実で一般化可能な動的毛髪を示す。
- 参考スコア(独自算出の注目度): 3.1157179526391374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simulating hair dynamics that generalize across arbitrary hairstyles, body shapes, and motions is a critical challenge. Our novel two-stage neural solution is the first to leverage Transformer-based architectures for such a broad generalization. We propose a Transformer-powered static network that predicts static draped shapes for any hairstyle, effectively resolving hair-body penetrations and preserving hair fidelity. Subsequently, a dynamic network with a novel cross-attention mechanism fuses static hair features with kinematic input to generate expressive dynamics and complex secondary motions. This dynamic network also allows for efficient fine-tuning of challenging motion sequences, such as abrupt head movements. Our method offers real-time inference for both static single-frame drapes and dynamic drapes over pose sequences. Our method demonstrates high-fidelity and generalizable dynamic hair across various styles, guided by physics-informed losses, and can resolve penetrations even for complex, unseen long hairstyles, highlighting its broad generalization.
- Abstract(参考訳): 任意のヘアスタイル、体形、動きを一般化するヘアダイナミクスのシミュレーションは重要な課題である。
我々の新しい2段階ニューラルソリューションは、トランスフォーマーベースのアーキテクチャをこのような広範な一般化に活用する最初のものである。
ヘアスタイルの静的ドレープ形状を予測し,ヘアボディの浸透を効果的に解消し,毛髪の忠実さを保ったトランスフォーマーを用いた静的ネットワークを提案する。
その後、新しいクロスアテンション機構を持つ動的ネットワークは、静的な毛髪の特徴をキネマティック入力で融合させ、表現力学と複雑な二次運動を生成する。
この動的ネットワークは、急激な頭部の動きのような挑戦的な動きのシーケンスを効率的に微調整することを可能にする。
提案手法は,静的単一フレームのドレープと動的ドレープの両方をポーズ列上でリアルタイムに推定する。
提案手法は,多種多様なスタイルにまたがる高忠実で一般化可能な動的毛髪を,物理インフォームド・ロスに導かれ,複雑で目立たない長い髪型であっても浸透を解消し,その広範な一般化を浮き彫りにしている。
関連論文リスト
- Neuralocks: Real-Time Dynamic Neural Hair Simulation [4.249827194545251]
ジャンプやウォーキングといったキャラクターの動きに反応してバウンスや揺れなどの髪のダイナミックな振る舞いは、全体的なリアリズムと仮想体験の関与を高める上で重要な役割を担っている。
髪をシミュレートする現在の手法は、高度に最適化された物理系とニューラルな方法の2つの主要なアプローチによって制約されている。
本稿では,これらの限界を打破し,効率的で安定した動的毛髪シミュレーションを実現する新しいニューラル手法を提案する。
論文 参考訳(メタデータ) (2025-07-07T16:49:19Z) - Dynamic Concepts Personalization from Single Videos [92.62863918003575]
動的概念で生成ビデオモデルをパーソナライズするための新しいフレームワークであるSet-and-Sequenceを紹介する。
提案手法は,空間的特徴と時間的特徴を明確に区別しないアーキテクチャにおいて,時間的重み空間を課す。
我々のフレームワークは動的概念をビデオモデルの出力領域に埋め込んでおり、前例のない編集性と構成性を実現している。
論文 参考訳(メタデータ) (2025-02-20T18:53:39Z) - Neural Material Adaptor for Visual Grounding of Intrinsic Dynamics [48.99021224773799]
本稿では,既存の物理法則を学習的補正と統合するニューラルネットワーク (NeuMA) を提案する。
また,粒子駆動型3次元ガウス平滑化モデルであるParticle-GSを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:43:36Z) - GaussianHair: Hair Modeling and Rendering with Light-aware Gaussians [41.52673678183542]
本稿では,新鮮な毛髪表現であるGaussianHairについて述べる。
ヘア幾何学と画像からの外観の包括的モデリングを可能にし、革新的な照明効果と動的アニメーション能力を育む。
我々はこのモデルを"GaussianHair Scattering Model"でさらに強化し、ヘアストランドの細い構造を再現し、均一な照明で局所的な拡散色を正確に捉えた。
論文 参考訳(メタデータ) (2024-02-16T07:13:24Z) - NeuWigs: A Neural Dynamic Model for Volumetric Hair Capture and
Animation [23.625243364572867]
人間の髪のキャプチャーとアニメーションは、バーチャルリアリティーのための現実的なアバターを作成する上で大きな課題の2つだ。
データ駆動方式でこれらの課題に対処するために、頭から独立して毛髪をモデル化する2段階のアプローチを提案する。
本モデルでは, 毛髪観察を駆動信号として必要とせず, 新規な毛髪アニメーションを作成することができる。
論文 参考訳(メタデータ) (2022-12-01T16:09:54Z) - PAD-Net: An Efficient Framework for Dynamic Networks [72.85480289152719]
動的ネットワークを実装する際の一般的な実践は、与えられた静的レイヤを完全な動的レイヤに変換することである。
我々は、冗長な動的パラメータを静的なパラメータに変換するために、部分的に動的ネットワーク、すなわちPAD-Netを提案する。
提案手法は,2つの典型的な動的アーキテクチャを用いた大規模実験によって包括的に支持されている。
論文 参考訳(メタデータ) (2022-11-10T12:42:43Z) - Drivable Volumetric Avatars using Texel-Aligned Features [52.89305658071045]
光テレプレゼンスは、動的に合成された外観を実現するために、高忠実度ボディモデリングと忠実な運転の両方を必要とする。
本稿では,現実人のフルボディアバターをモデリングし,駆動する際の2つの課題に対処するエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-20T09:28:16Z) - HVH: Learning a Hybrid Neural Volumetric Representation for Dynamic Hair
Performance Capture [11.645769995924548]
ライフスタイルの毛髪を捕えることは、その微細な幾何学的構造、複雑な物理的相互作用、そして非自明な視覚的外観のために特に困難である。
本稿では,数千のプリミティブで構成された斬新な容積表現を用いる。
提案手法は,記録されたマルチビューシーケンスのリアルなレンダリングを生成するだけでなく,新しい制御信号を提供することで,新しいヘア構成のレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-13T18:57:50Z) - Dance In the Wild: Monocular Human Animation with Neural Dynamic
Appearance Synthesis [56.550999933048075]
そこで本研究では,課題に対処し,高品質な映像合成手法を提案する。
動的外見変化を捉えるために発電機重量を変調するために用いられる新しい動きシグネチャを導入する。
提案手法を課題ビデオの集合上で評価し,その手法が質的かつ定量的に最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-11-10T20:18:57Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z) - Dynamic Neural Garments [45.833166320896716]
本稿では,身体の関節運動を取り込み,リアルな動的衣服画像列を直接生成する解を提案する。
具体的には, アバターの目標関節運動列を考慮し, ダイナミック・ニューラル・ウェアスを提案し, プラウシブル・ダイナミック・ウェアスの外観をシミュレートし, レンダリングする。
論文 参考訳(メタデータ) (2021-02-23T17:21:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。