論文の概要: Learning a Generalized Physical Face Model From Data
- arxiv url: http://arxiv.org/abs/2402.19477v1
- Date: Thu, 29 Feb 2024 18:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-01 13:17:18.844013
- Title: Learning a Generalized Physical Face Model From Data
- Title(参考訳): データから一般化された顔モデルを学ぶ
- Authors: Lingchen Yang, Gaspard Zoss, Prashanth Chandran, Markus Gross, Barbara
Solenthaler, Eftychios Sifakis, Derek Bradley
- Abstract要約: シミュレーション無しで大規模な3次元顔データセットから学習する、一般化された顔モデルを提案する。
我々のモデルは、目に見えないあらゆるアイデンティティに迅速に適合し、自動的に自己認識可能な物理顔モデルを生成することができる。
その間、得られたアニメーションは衝突回避、重力、麻痺、骨の変形などの物理的効果を許容する。
- 参考スコア(独自算出の注目度): 20.432913500642417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physically-based simulation is a powerful approach for 3D facial animation as
the resulting deformations are governed by physical constraints, allowing to
easily resolve self-collisions, respond to external forces and perform
realistic anatomy edits. Today's methods are data-driven, where the actuations
for finite elements are inferred from captured skin geometry. Unfortunately,
these approaches have not been widely adopted due to the complexity of
initializing the material space and learning the deformation model for each
character separately, which often requires a skilled artist followed by lengthy
network training. In this work, we aim to make physics-based facial animation
more accessible by proposing a generalized physical face model that we learn
from a large 3D face dataset in a simulation-free manner. Once trained, our
model can be quickly fit to any unseen identity and produce a ready-to-animate
physical face model automatically. Fitting is as easy as providing a single 3D
face scan, or even a single face image. After fitting, we offer intuitive
animation controls, as well as the ability to retarget animations across
characters. All the while, the resulting animations allow for physical effects
like collision avoidance, gravity, paralysis, bone reshaping and more.
- Abstract(参考訳): 物理的ベースのシミュレーションは、3d顔アニメーションにとって強力なアプローチであり、結果として生じる変形は物理的制約によって制御され、容易に自己衝突を解決し、外部の力に反応し、現実的な解剖学的編集を行うことができる。
今日の手法はデータ駆動であり、有限要素のアクチュエーションは捕獲された皮膚形状から推測される。
残念なことに、これらのアプローチは材料空間の初期化と各キャラクタの変形モデルを個別に学習する複雑さのために広く採用されていない。
本研究では,大規模な3d顔データセットからシミュレーションフリーで学習できる汎用的な顔モデルを提案することにより,物理ベースの顔アニメーションをより使いやすくすることを目的としている。
トレーニングが終わると、私たちのモデルはすぐに見当たらないアイデンティティに適合し、準備の整った物理顔モデルを自動的に生成できます。
フィッティングは、単一の3D顔スキャン、あるいは単一の顔画像を提供するのと同じくらい簡単です。
適合すると、直感的なアニメーションコントロールと、キャラクター間でアニメーションを再ターゲティングする機能を提供します。
その間、得られたアニメーションは衝突回避、重力、麻痺、骨の変形などの物理的効果を許容する。
関連論文リスト
- GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations [54.94362657501809]
マルチビュー画像から高ダイナミックで変形可能な人間の頭部アバターをリアルタイムで生成する手法を提案する。
本手法のコアとなるのは,顔表情と頭部運動の複雑なダイナミクスを捉えることができる頭部モデルの階層的表現である。
我々は、この粗い顔アバターモデルを、エンドツーエンドのフレームワークで学習可能なパラメータとして頭部ポーズとともに訓練する。
論文 参考訳(メタデータ) (2024-09-18T13:05:43Z) - AnimeCeleb: Large-Scale Animation CelebFaces Dataset via Controllable 3D
Synthetic Models [19.6347170450874]
制御可能な合成アニメーションモデルを用いて,大規模なアニメーションセロブフェイスデータセット(AnimeCeleb)を提案する。
データ生成プロセスを容易にするため,オープンな3Dソフトウェアに基づく半自動パイプラインを構築した。
これにより、多目的および多スタイルのアニメーションフェースとリッチアノテーションを備えた大規模なアニメーションフェースデータセットを構築することができる。
論文 参考訳(メタデータ) (2021-11-15T10:00:06Z) - SAFA: Structure Aware Face Animation [9.58882272014749]
顔画像の異なる成分をモデル化するために,特定の幾何学的構造を構成する構造認識顔画像(SAFA)手法を提案する。
顔のモデリングには3Dフォーマブルモデル(3DMM)、髪やひげなどの他の前景のコンポーネントをモデル化するための複数のアフィン変換、背景をモデル化するためのアイデンティティ変換を使用します。
3DMMの幾何学的埋め込みは、運転シーンの現実的な構造を生成するだけでなく、生成した画像の隠蔽領域の知覚の向上にも寄与する。
論文 参考訳(メタデータ) (2021-11-09T03:22:38Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Real-time Deep Dynamic Characters [95.5592405831368]
本研究では,高度にリアルな形状,動き,ダイナミックな外観を示す3次元人物モデルを提案する。
我々は,新しいグラフ畳み込みネットワークアーキテクチャを用いて,身体と衣服の運動依存的変形学習を実現する。
本モデルでは, 運動依存的表面変形, 物理的に妥当な動的衣服変形, および映像現実的表面テクスチャを, 従来よりも細部まで高レベルに生成することを示す。
論文 参考訳(メタデータ) (2021-05-04T23:28:55Z) - S3: Neural Shape, Skeleton, and Skinning Fields for 3D Human Modeling [103.65625425020129]
歩行者の形状、ポーズ、皮膚の重みを、データから直接学習する神経暗黙関数として表現します。
各種データセットに対するアプローチの有効性を実証し,既存の最先端手法よりも再現性が優れていることを示す。
論文 参考訳(メタデータ) (2021-01-17T02:16:56Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z) - Unsupervised Shape and Pose Disentanglement for 3D Meshes [49.431680543840706]
本研究では,非教師付き環境において,非教師付き形状とポーズ表現を学習するための,シンプルで効果的なアプローチを提案する。
自己整合性と相互整合性の制約を組み合わせて、登録メッシュからポーズと空間の形状を学ぶ。
ポーズ転送や形状検索などのタスクを通じて,学習した表現の有用性を示す。
論文 参考訳(メタデータ) (2020-07-22T11:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。