論文の概要: PanoLAM: Large Avatar Model for Gaussian Full-Head Synthesis from One-shot Unposed Image
- arxiv url: http://arxiv.org/abs/2509.07552v1
- Date: Tue, 09 Sep 2025 09:42:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.255394
- Title: PanoLAM: Large Avatar Model for Gaussian Full-Head Synthesis from One-shot Unposed Image
- Title(参考訳): パノLAM:1ショット未像からのガウスフルヘッド合成のための大アバターモデル
- Authors: Peng Li, Yisheng He, Yingdong Hu, Yuan Dong, Weihao Yuan, Yuan Liu, Zilong Dong, Yike Guo,
- Abstract要約: 本稿では,ガウス全頭部合成のためのフィードフォワード・フレームワークを提案する。
従来のGANインバージョンとテスト時間最適化に依存した作業とは異なり、我々のフレームワークは、1つの未提示画像が1つの前方パスで与えられると、ガウスのフルヘッドモデルを再構築することができる。
- 参考スコア(独自算出の注目度): 43.10371376514271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a feed-forward framework for Gaussian full-head synthesis from a single unposed image. Unlike previous work that relies on time-consuming GAN inversion and test-time optimization, our framework can reconstruct the Gaussian full-head model given a single unposed image in a single forward pass. This enables fast reconstruction and rendering during inference. To mitigate the lack of large-scale 3D head assets, we propose a large-scale synthetic dataset from trained 3D GANs and train our framework using only synthetic data. For efficient high-fidelity generation, we introduce a coarse-to-fine Gaussian head generation pipeline, where sparse points from the FLAME model interact with the image features by transformer blocks for feature extraction and coarse shape reconstruction, which are then densified for high-fidelity reconstruction. To fully leverage the prior knowledge residing in pretrained 3D GANs for effective reconstruction, we propose a dual-branch framework that effectively aggregates the structured spherical triplane feature and unstructured point-based features for more effective Gaussian head reconstruction. Experimental results show the effectiveness of our framework towards existing work.
- Abstract(参考訳): 本稿では,ガウス全頭部合成のためのフィードフォワード・フレームワークを提案する。
従来のGANインバージョンとテスト時間最適化に依存した作業とは異なり、我々のフレームワークは、1つの未提示画像が1つの前方パスで与えられると、ガウスのフルヘッドモデルを再構築することができる。
これにより推論中の高速な再構築とレンダリングが可能になる。
大規模な3Dヘッドアセットの不足を軽減するため,訓練された3D GANから大規模な合成データセットを提案し,合成データのみを用いてフレームワークをトレーニングする。
高速な高忠実度生成のために,FLAMEモデルからの粗い点と特徴抽出と粗い形状再構成のための変圧器ブロックによって画像特徴とを相互作用させる粗大なガウスヘッド生成パイプラインを導入する。
事前学習した3D GANの事前知識を有効に活用するために,より効率的なガウス頭部再構成のための球面三面体特徴と非構造点ベース特徴を効果的に集約する二分岐フレームワークを提案する。
実験の結果,既存の作業に対するフレームワークの有効性が示された。
関連論文リスト
- LIRM: Large Inverse Rendering Model for Progressive Reconstruction of Shape, Materials and View-dependent Radiance Fields [23.174562444342286]
本稿では,高品質な形状,材料,放射界を共同で再構成するトランスフォーマーアーキテクチャであるLarge Inverse Rendering Model(LIRM)を提案する。
我々のモデルは、現在最先端のスパース・ビュー・リコンストラクション品質を実現する、最近の大規模リコンストラクション・モデル(LRM)に基づいて構築されている。
論文 参考訳(メタデータ) (2025-04-28T17:48:58Z) - HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - FOF-X: Towards Real-time Detailed Human Reconstruction from a Single Image [64.96903230497755]
本稿では,1枚の画像から詳細な人物形状をリアルタイムに再現するFOF-Xを提案する。
FOFの中核は、3次元占有体を2次元ベクトル場に分解し、3次元領域内の位相的および空間的関係を維持することである。
FOFに基づく新しい再構成フレームワークFOF-Xを設計し,テクスチャや照明による性能劣化を回避する。
論文 参考訳(メタデータ) (2024-12-08T14:46:29Z) - PreF3R: Pose-Free Feed-Forward 3D Gaussian Splatting from Variable-length Image Sequence [3.61512056914095]
可変長の画像列から,PreF3R, Pose-Free Feed-forward 3D再構成を提案する。
PreF3Rは、カメラキャリブレーションの必要性を排除し、正準座標フレーム内の3次元ガウス場を、未提示画像のシーケンスから直接再構成する。
論文 参考訳(メタデータ) (2024-11-25T19:16:29Z) - USP-Gaussian: Unifying Spike-based Image Reconstruction, Pose Correction and Gaussian Splatting [45.246178004823534]
スパイクカメラは、0-1ビットストリームを40kHzで撮影する革新的なニューロモルフィックカメラとして、ますます3D再構成タスクに採用されている。
以前のスパイクベースの3D再構成アプローチでは、ケースケースのパイプラインを使うことが多い。
本稿では,スパイクに基づく画像再構成,ポーズ補正,ガウス的スプラッティングをエンドツーエンドのフレームワークに統一する,相乗的最適化フレームワーク textbfUSP-Gaussian を提案する。
論文 参考訳(メタデータ) (2024-11-15T14:15:16Z) - GSD: View-Guided Gaussian Splatting Diffusion for 3D Reconstruction [52.04103235260539]
単一視点からの3次元オブジェクト再構成のためのガウススプティング表現に基づく拡散モデル手法を提案する。
モデルはGS楕円体の集合で表される3Dオブジェクトを生成することを学習する。
最終的な再構成されたオブジェクトは、高品質な3D構造とテクスチャを持ち、任意のビューで効率的にレンダリングできる。
論文 参考訳(メタデータ) (2024-07-05T03:43:08Z) - GaussianRoom: Improving 3D Gaussian Splatting with SDF Guidance and Monocular Cues for Indoor Scene Reconstruction [5.112375652774415]
本稿では,SDFと3DGSを統合し,正確な幾何再構成とリアルタイムレンダリングを行う統合最適化フレームワークを提案する。
本手法は, 表面再構成と新しいビュー合成の両面において, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T03:46:59Z) - GRM: Large Gaussian Reconstruction Model for Efficient 3D Reconstruction and Generation [85.15374487533643]
約0.1秒でスパースビュー画像から3Dアセットを復元できる大規模再構成機であるGRMを紹介する。
GRMは、マルチビュー情報を効率的に組み込んだフィードフォワードトランスフォーマーベースのモデルである。
また,既存の多視点拡散モデルと統合することにより,テキスト・ツー・3Dや画像・ツー・3Dといった生成タスクにおけるGRMの可能性を示す。
論文 参考訳(メタデータ) (2024-03-21T17:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。