論文の概要: Dream, Lift, Animate: From Single Images to Animatable Gaussian Avatars
- arxiv url: http://arxiv.org/abs/2507.15979v1
- Date: Mon, 21 Jul 2025 18:20:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.837332
- Title: Dream, Lift, Animate: From Single Images to Animatable Gaussian Avatars
- Title(参考訳): ドリーム、リフト、アニメート:1枚の画像からアニマタブルなガウスアバター
- Authors: Marcel C. Bühler, Ye Yuan, Xueting Li, Yangyi Huang, Koki Nagano, Umar Iqbal,
- Abstract要約: 一つの画像からアニマタブルな3Dアバターを再構築する新しいフレームワークであるDream, Lift, Animate(DLA)を紹介する。
これは、マルチビュー生成、3Dガウスリフト、および3Dガウスのポーズ対応UV空間マッピングを活用することで実現される。
提案手法は,アクターHQと4D-Dressのデータセットに対して,知覚品質と測光精度の両方において,最先端のアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 20.807609264738865
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce Dream, Lift, Animate (DLA), a novel framework that reconstructs animatable 3D human avatars from a single image. This is achieved by leveraging multi-view generation, 3D Gaussian lifting, and pose-aware UV-space mapping of 3D Gaussians. Given an image, we first dream plausible multi-views using a video diffusion model, capturing rich geometric and appearance details. These views are then lifted into unstructured 3D Gaussians. To enable animation, we propose a transformer-based encoder that models global spatial relationships and projects these Gaussians into a structured latent representation aligned with the UV space of a parametric body model. This latent code is decoded into UV-space Gaussians that can be animated via body-driven deformation and rendered conditioned on pose and viewpoint. By anchoring Gaussians to the UV manifold, our method ensures consistency during animation while preserving fine visual details. DLA enables real-time rendering and intuitive editing without requiring post-processing. Our method outperforms state-of-the-art approaches on ActorsHQ and 4D-Dress datasets in both perceptual quality and photometric accuracy. By combining the generative strengths of video diffusion models with a pose-aware UV-space Gaussian mapping, DLA bridges the gap between unstructured 3D representations and high-fidelity, animation-ready avatars.
- Abstract(参考訳): 一つの画像からアニマタブルな3Dアバターを再構築する新しいフレームワークであるDream, Lift, Animate(DLA)を紹介する。
これは、マルチビュー生成、3Dガウスリフト、および3Dガウスのポーズ対応UV空間マッピングを活用することで実現される。
画像が与えられたとき、私たちはビデオ拡散モデルを用いて、リッチな幾何学的、外観的詳細を捉えた、もっともらしいマルチビューを初めて夢見る。
これらのビューは、非構造化の3Dガウシアンへと持ち上げられる。
アニメーションを実現するために,グローバル空間関係をモデル化したトランスフォーマーベースのエンコーダを提案し,これらのガウスをパラメトリックボディモデルのUV空間に整合した構造化潜在表現に投影する。
この潜在コードはUV空間のガウスアンにデコードされ、ボディ駆動の変形によってアニメーション化され、ポーズと視点で条件付けされる。
ガウスアンをUV多様体に固定することにより、細かな視覚的詳細を保存しながらアニメーション中の一貫性を確保する。
DLAは、後処理を必要とせずにリアルタイムのレンダリングと直感的な編集を可能にする。
提案手法は,アクターHQと4D-Dressのデータセットに対して,知覚品質と測光精度の両方において,最先端のアプローチよりも優れている。
ビデオ拡散モデルの生成強度とポーズ対応UV空間ガウスマッピングを組み合わせることで、DLAは非構造的3次元表現と高忠実なアニメーション対応アバターのギャップを埋める。
関連論文リスト
- MoGA: 3D Generative Avatar Prior for Monocular Gaussian Avatar Reconstruction [65.5412504339528]
MoGAは高忠実度3Dガウスアバターを単一視点画像から再構成する新しい手法である。
提案手法は最先端の手法を超越し,実世界のシナリオを一般化する。
論文 参考訳(メタデータ) (2025-07-31T14:36:24Z) - TeGA: Texture Space Gaussian Avatars for High-Resolution Dynamic Head Modeling [52.87836237427514]
フォトリアルアバターは、テレプレゼンス、拡張現実、エンターテイメントにおける新興アプリケーションにおいて重要な要素であると見なされている。
本稿では,最先端の3Dヘッドアバターモデルを提案する。
論文 参考訳(メタデータ) (2025-05-08T22:10:27Z) - 3D$^2$-Actor: Learning Pose-Conditioned 3D-Aware Denoiser for Realistic Gaussian Avatar Modeling [37.11454674584874]
ポーズ条件付き3D対応ヒューマンモデリングパイプラインである3D$2$-Actorを導入する。
実験により、3D$2$-アクターは高忠実度アバターモデリングにおいて優れ、新しいポーズに頑健に一般化することを示した。
論文 参考訳(メタデータ) (2024-12-16T09:37:52Z) - DreamWaltz-G: Expressive 3D Gaussian Avatars from Skeleton-Guided 2D
Diffusion [69.67970568012599]
テキストからアニマタブルな3Dアバター生成のための新しい学習フレームワークDreamWaltz-Gを提案する。
このフレームワークのコアはScore DistillationとHybrid 3D Gaussian Avatar表現にある。
我々のフレームワークは、人間のビデオ再現や多目的シーン構成など、多様なアプリケーションもサポートしています。
論文 参考訳(メタデータ) (2024-09-25T17:59:45Z) - iHuman: Instant Animatable Digital Humans From Monocular Videos [16.98924995658091]
モノクロビデオからアニマタブルな3Dデジタル人間を作るための,迅速かつシンプルで効果的な方法を提案する。
この研究は、人間の身体の正確な3Dメッシュ型モデリングの必要性を達成し、説明します。
我々の手法は(訓練時間の観点から)最も近い競合相手よりも桁違いに高速である。
論文 参考訳(メタデータ) (2024-07-15T18:51:51Z) - LoopGaussian: Creating 3D Cinemagraph with Multi-view Images via Eulerian Motion Field [13.815932949774858]
シネマグラフ(Cinemagraph)は、静止画と微妙な動きの要素を組み合わせた視覚メディアの一種である。
本稿では,3次元ガウスモデルを用いて,2次元画像空間から3次元空間への撮影画像の高次化を提案する。
実験の結果,提案手法の有効性を検証し,高品質で視覚的に魅力的なシーン生成を実証した。
論文 参考訳(メタデータ) (2024-04-13T11:07:53Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z) - Animatable and Relightable Gaussians for High-fidelity Human Avatar Modeling [47.1427140235414]
強力な2次元CNNと3次元ガウススプラッティングを活用して高忠実度アバターを作成する新しいアバター表現を提案する。
我々の手法は、動的で現実的で、一般化され、楽しく見えるアバターを作ることができる。
論文 参考訳(メタデータ) (2023-11-27T18:59:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。