論文の概要: FlexAvatar: Learning Complete 3D Head Avatars with Partial Supervision
- arxiv url: http://arxiv.org/abs/2512.15599v1
- Date: Wed, 17 Dec 2025 17:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.065657
- Title: FlexAvatar: Learning Complete 3D Head Avatars with Partial Supervision
- Title(参考訳): FlexAvatar: 部分的なスーパービジョンで完全な3Dヘッドアバターを学習する
- Authors: Tobias Kirschstein, Simon Giebenhain, Matthias Nießner,
- Abstract要約: 1枚の画像から高品質で完全な3Dヘッドアバターを作成するFlexAvatarを紹介する。
トレーニング手順はスムーズな遅延アバター空間を生じ,任意の数の入力観測に適合する恒等性とフレキシブルな適合性を実現する。
- 参考スコア(独自算出の注目度): 54.69512425050288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce FlexAvatar, a method for creating high-quality and complete 3D head avatars from a single image. A core challenge lies in the limited availability of multi-view data and the tendency of monocular training to yield incomplete 3D head reconstructions. We identify the root cause of this issue as the entanglement between driving signal and target viewpoint when learning from monocular videos. To address this, we propose a transformer-based 3D portrait animation model with learnable data source tokens, so-called bias sinks, which enables unified training across monocular and multi-view datasets. This design leverages the strengths of both data sources during inference: strong generalization from monocular data and full 3D completeness from multi-view supervision. Furthermore, our training procedure yields a smooth latent avatar space that facilitates identity interpolation and flexible fitting to an arbitrary number of input observations. In extensive evaluations on single-view, few-shot, and monocular avatar creation tasks, we verify the efficacy of FlexAvatar. Many existing methods struggle with view extrapolation while FlexAvatar generates complete 3D head avatars with realistic facial animations. Website: https://tobias-kirschstein.github.io/flexavatar/
- Abstract(参考訳): 1枚の画像から高品質で完全な3Dヘッドアバターを作成するFlexAvatarを紹介する。
中心となる課題は、マルチビューデータの可用性の制限と、不完全な3次元頭部再構成を実現するための単眼トレーニングの傾向である。
この問題の根本原因は、単眼ビデオから学習する際の駆動信号と目標視点との絡み合いである。
そこで本研究では,学習可能なデータソーストークン,いわゆるバイアスシンクを備えたトランスフォーマーに基づく3次元ポートレートアニメーションモデルを提案する。
この設計は、単分子データからの強い一般化と多視点監視による完全な3D完全性という、推論時の両方のデータソースの強みを活用する。
さらに, 任意の数の入力観測に対して, 同一性補間やフレキシブルなフィッティングを容易にするスムーズな遅延アバター空間が得られる。
単一視点,少数ショット,単眼アバター作成タスクの広範な評価において,FlexAvatarの有効性を検証した。
FlexAvatarはリアルな顔アニメーションを備えた完全な3Dヘッドアバターを生成する。
ウェブサイト:https://tobias-kirschstein.github.io/flexavatar/
関連論文リスト
- Avat3r: Large Animatable Gaussian Reconstruction Model for High-fidelity 3D Head Avatars [60.0866477932976]
少数の入力画像から高品質でアニマタブルな3Dヘッドアバターを復元するAvat3rを提案する。
大規模なリコンストラクションモデルをアニマタブルにし、大規模なマルチビュービデオデータセットから3次元以上の人間の頭部を強力に学習する。
トレーニング中に異なる表現の入力イメージをモデルに供給することでロバスト性を高め,不整合入力からの3次元頭部アバターの再構成を可能にする。
論文 参考訳(メタデータ) (2025-02-27T16:00:11Z) - FAGhead: Fully Animate Gaussian Head from Monocular Videos [2.9979421496374683]
FAGheadは、モノクロビデオから完全に制御可能な人間の肖像画を可能にする方法である。
従来の3次元形状メッシュ(3DMM)を明示し,中性な3次元ガウス多様体を複素表現で再構成するために最適化する。
アバターのエッジを効果的に管理するために,各画素のアルファ値を監督するアルファレンダリングを導入した。
論文 参考訳(メタデータ) (2024-06-27T10:40:35Z) - GPAvatar: Generalizable and Precise Head Avatar from Image(s) [71.555405205039]
GPAvatarは、1つの前方パスで1つまたは複数の画像から3Dヘッドアバターを再構築するフレームワークである。
提案手法は,忠実なアイデンティティ再構築,正確な表現制御,多視点一貫性を実現する。
論文 参考訳(メタデータ) (2024-01-18T18:56:34Z) - OTAvatar: One-shot Talking Face Avatar with Controllable Tri-plane
Rendering [81.55960827071661]
制御性、一般化性、効率性は、ニューラル暗黙の場で表される顔アバターを構成する主要な目的である。
汎用制御可能な3面描画ソリューションにより顔アバターを構成するワンショット面アバター(OTAvatar)を提案する。
論文 参考訳(メタデータ) (2023-03-26T09:12:03Z) - PointAvatar: Deformable Point-based Head Avatars from Videos [103.43941945044294]
PointAvatarは変形可能な点ベースの表現で、原色を固有アルベドと正規依存シェーディングに分解する。
提案手法は,複数の音源からのモノクロビデオを用いて,アニマタブルな3Dアバターを生成することができることを示す。
論文 参考訳(メタデータ) (2022-12-16T10:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。