論文の概要: LiftAvatar: Kinematic-Space Completion for Expression-Controlled 3D Gaussian Avatar Animation
- arxiv url: http://arxiv.org/abs/2603.02129v1
- Date: Mon, 02 Mar 2026 17:46:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:57.013482
- Title: LiftAvatar: Kinematic-Space Completion for Expression-Controlled 3D Gaussian Avatar Animation
- Title(参考訳): LiftAvatar:3次元ガウスアバターアニメーションのための運動空間補完
- Authors: Hualiang Wei, Shunran Jia, Jialun Liu, Wenhui Li,
- Abstract要約: リフトアバター(LiftAvatar)は、運動空間における特異な単分子観測を完備する新しいパラダイムである。
完成した信号を使って高忠実度アバターアニメーションを駆動する。
- 参考スコア(独自算出の注目度): 9.736861648552408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present LiftAvatar, a new paradigm that completes sparse monocular observations in kinematic space (e.g., facial expressions and head pose) and uses the completed signals to drive high-fidelity avatar animation. LiftAvatar is a fine-grained, expression-controllable large-scale video diffusion Transformer that synthesizes high-quality, temporally coherent expression sequences conditioned on single or multiple reference images. The key idea is to lift incomplete input data into a richer kinematic representation, thereby strengthening both reconstruction and animation in downstream 3D avatar pipelines. To this end, we introduce (i) a multi-granularity expression control scheme that combines shading maps with expression coefficients for precise and stable driving, and (ii) a multi-reference conditioning mechanism that aggregates complementary cues from multiple frames, enabling strong 3D consistency and controllability. As a plug-and-play enhancer, LiftAvatar directly addresses the limited expressiveness and reconstruction artifacts of 3D Gaussian Splatting-based avatars caused by sparse kinematic cues in everyday monocular videos. By expanding incomplete observations into diverse pose-expression variations, LiftAvatar also enables effective prior distillation from large-scale video generative models into 3D pipelines, leading to substantial gains. Extensive experiments show that LiftAvatar consistently boosts animation quality and quantitative metrics of state-of-the-art 3D avatar methods, especially under extreme, unseen expressions.
- Abstract(参考訳): リフトアバター(LiftAvatar)は,運動空間(表情や頭部ポーズなど)における特異な単分子観察を完了し,完成した信号を用いて高忠実度アバターアニメーションを駆動する新しいパラダイムである。
LiftAvatar(リフトアバター)は、単一または複数の参照画像に条件付けされた高品質で時間的に整合した表現シーケンスを合成する、表現制御可能な大規模ビデオ拡散変換器である。
キーとなるアイデアは、不完全な入力データをよりリッチなキネマティックな表現に持ち上げることで、下流の3Dアバターパイプラインにおける再構築とアニメーションの両方を強化することである。
この目的のために紹介する。
一 シェーディングマップと表現係数を組み合わせて正確に安定した運転を行う多粒性表現制御方式
(II)複数のフレームから補完的キューを集約し,強力な3次元整合性と制御性を実現するマルチ参照条件付け機構。
LiftAvatarはプラグ・アンド・プレイ・エンハンサーとして、3Dガウスのスプラッティングをベースとしたアバターの表現力と再現性に対処する。
LiftAvatarは、不完全な観察を様々なポーズ-表現のバリエーションに拡張することで、大規模なビデオ生成モデルから3Dパイプラインへの効果的な事前蒸留を可能にし、かなりの利益をもたらす。
大規模な実験により、LiftAvatarは、特に極端に見えない表現の下で、最先端の3Dアバター手法のアニメーション品質と定量的メトリクスを一貫して向上させることが示された。
関連論文リスト
- FastGHA: Generalized Few-Shot 3D Gaussian Head Avatars with Real-Time Animation [26.161556787983496]
OURSは、少数の入力画像から高品質なガウスヘッドアバターを生成するフィードフォワード方式である。
提案手法は,入力画像から画素ごとのガウス表現を直接学習する。
実験の結果,提案手法は,レンダリング品質と推論効率の両方において,既存の手法を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2026-01-20T10:49:49Z) - FlexAvatar: Flexible Large Reconstruction Model for Animatable Gaussian Head Avatars with Detailed Deformation [52.919328336985636]
高忠実度3次元頭部アバターのフレキシブル大再構成モデルFlexAvatarを提案する。
フレキシブルなインプットナンバー非依存、カメラ不要、表現自由なインプットをロバストな3D表現に集約する。
従来の手法よりも優れた3次元一貫性、詳細な動的リアリズムを実現する。
論文 参考訳(メタデータ) (2025-12-19T15:51:44Z) - FlexAvatar: Learning Complete 3D Head Avatars with Partial Supervision [54.69512425050288]
1枚の画像から高品質で完全な3Dヘッドアバターを作成するFlexAvatarを紹介する。
トレーニング手順はスムーズな遅延アバター空間を生じ,任意の数の入力観測に適合する恒等性とフレキシブルな適合性を実現する。
論文 参考訳(メタデータ) (2025-12-17T17:09:52Z) - FastAvatar: Towards Unified Fast High-Fidelity 3D Avatar Reconstruction with Large Gaussian Reconstruction Transformers [19.37926572767567]
FastAvatarはフィードフォワード3Dアバターフレームワークで、多様な日々の録音を柔軟に活用することができる。
高品質な3Dガウススプラッティング(3DGS)モデルを1つの統一モデルで数秒で再構築する。
論文 参考訳(メタデータ) (2025-08-27T10:30:15Z) - AdaHuman: Animatable Detailed 3D Human Generation with Compositional Multiview Diffusion [56.12859795754579]
AdaHumanは、単一のアプリ内画像から高忠実でアニマタブルな3Dアバターを生成する新しいフレームワークである。
AdaHumanはポーズ条件付き3D共同拡散モデルと合成3DGS精製モジュールという2つの重要なイノベーションを取り入れている。
論文 参考訳(メタデータ) (2025-05-30T17:59:54Z) - TeGA: Texture Space Gaussian Avatars for High-Resolution Dynamic Head Modeling [52.87836237427514]
フォトリアルアバターは、テレプレゼンス、拡張現実、エンターテイメントにおける新興アプリケーションにおいて重要な要素であると見なされている。
本稿では,最先端の3Dヘッドアバターモデルを提案する。
論文 参考訳(メタデータ) (2025-05-08T22:10:27Z) - SEGA: Drivable 3D Gaussian Head Avatar from a Single Image [15.117619290414064]
本稿では,3次元ドライビング可能なガウスヘッドアバターの新規な手法であるSEGAを提案する。
SEGAは、大規模な2Dデータセットから派生した先行データと、マルチビュー、マルチ圧縮、マルチIDデータから得られた3D先行データとをシームレスに結合する。
提案手法は, 一般化能力, アイデンティティ保存, 表現リアリズムにおいて, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-19T18:23:31Z) - DreamWaltz-G: Expressive 3D Gaussian Avatars from Skeleton-Guided 2D
Diffusion [69.67970568012599]
テキストからアニマタブルな3Dアバター生成のための新しい学習フレームワークDreamWaltz-Gを提案する。
このフレームワークのコアはScore DistillationとHybrid 3D Gaussian Avatar表現にある。
我々のフレームワークは、人間のビデオ再現や多目的シーン構成など、多様なアプリケーションもサポートしています。
論文 参考訳(メタデータ) (2024-09-25T17:59:45Z) - NPGA: Neural Parametric Gaussian Avatars [46.52887358194364]
マルチビュー映像記録から高忠実度制御可能なアバターを作成するためのデータ駆動方式を提案する。
我々は,高効率なレンダリングのための3次元ガウススプラッティングの手法を構築し,点雲のトポロジカルな柔軟性を継承する。
提案手法をNeRSembleデータセット上で評価し,NPGAが従来の自己再現タスクの2.6PSNRよりも有意に優れていたことを示す。
論文 参考訳(メタデータ) (2024-05-29T17:58:09Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。