論文の概要: Gaussian Pixel Codec Avatars: A Hybrid Representation for Efficient Rendering
- arxiv url: http://arxiv.org/abs/2512.15711v1
- Date: Wed, 17 Dec 2025 18:58:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.120387
- Title: Gaussian Pixel Codec Avatars: A Hybrid Representation for Efficient Rendering
- Title(参考訳): Gaussian Pixel Codec Avatars: 効率的なレンダリングのためのハイブリッド表現
- Authors: Divam Gupta, Anuj Pahuja, Nemanja Bartolovic, Tomas Simon, Forrest Iandola, Giljoo Nam,
- Abstract要約: GPiCAは、三角形メッシュと異方性3Dガウスアンを組み合わせたユニークなハイブリッド表現を使用している。
ニューラルネットワークを使用して、表情コードを3D顔メッシュ、RGBAテクスチャ、および3Dガウスのセットの3つのコンポーネントにデコードする。
以上の結果から,GPiCAはメッシュベースアバターのレンダリング性能に適合しながら,純粋にガウス系アバターのリアリズムを実現することが示された。
- 参考スコア(独自算出の注目度): 11.508015004156391
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Gaussian Pixel Codec Avatars (GPiCA), photorealistic head avatars that can be generated from multi-view images and efficiently rendered on mobile devices. GPiCA utilizes a unique hybrid representation that combines a triangle mesh and anisotropic 3D Gaussians. This combination maximizes memory and rendering efficiency while maintaining a photorealistic appearance. The triangle mesh is highly efficient in representing surface areas like facial skin, while the 3D Gaussians effectively handle non-surface areas such as hair and beard. To this end, we develop a unified differentiable rendering pipeline that treats the mesh as a semi-transparent layer within the volumetric rendering paradigm of 3D Gaussian Splatting. We train neural networks to decode a facial expression code into three components: a 3D face mesh, an RGBA texture, and a set of 3D Gaussians. These components are rendered simultaneously in a unified rendering engine. The networks are trained using multi-view image supervision. Our results demonstrate that GPiCA achieves the realism of purely Gaussian-based avatars while matching the rendering performance of mesh-based avatars.
- Abstract(参考訳): 本稿では,多視点画像から生成し,モバイルデバイス上で効率よくレンダリングできるフォトリアリスティックヘッドアバターであるGaussian Pixel Codec Avatars(GPiCA)を提案する。
GPiCAは、三角形メッシュと異方性3Dガウスアンを組み合わせたユニークなハイブリッド表現を使用している。
この組み合わせは、フォトリアリスティックな外観を維持しながら、メモリとレンダリング効率を最大化する。
三角形メッシュは顔の皮膚のような表面の領域を表現するのに非常に効率的であり、3Dガウスは毛髪やひげのような非表面の領域を効果的に扱う。
そこで我々は,メッシュを3次元ガウススプラッティングのボリュームレンダリングパラダイム内の半透明層として扱う,統一的な微分可能レンダリングパイプラインを開発した。
ニューラルネットワークを使用して、表情コードを3D顔メッシュ、RGBAテクスチャ、および3Dガウスのセットの3つのコンポーネントにデコードする。
これらのコンポーネントは統合レンダリングエンジンで同時にレンダリングされる。
ネットワークは多視点画像監視を用いて訓練される。
以上の結果から,GPiCAはメッシュベースアバターのレンダリング性能に適合しながら,純粋にガウス系アバターのリアリズムを実現することが示された。
関連論文リスト
- Hybrid Explicit Representation for Ultra-Realistic Head Avatars [55.829497543262214]
我々は,超現実的な頭部アバターを作成し,それをリアルタイムにレンダリングする新しい手法を提案する。
UVマップされた3Dメッシュは滑らかな表面のシャープでリッチなテクスチャを捉えるのに使われ、3Dガウス格子は複雑な幾何学構造を表現するために用いられる。
モデル化された結果が最先端のアプローチを上回る実験を行ないました。
論文 参考訳(メタデータ) (2024-03-18T04:01:26Z) - SplattingAvatar: Realistic Real-Time Human Avatars with Mesh-Embedded
Gaussian Splatting [26.849406891462557]
トライアングルメッシュ上に埋め込まれたガウススプラッティングと人間のアバターのハイブリッド3次元表現であるSplattingAvatarについて述べる。
SplattingAvatarは、最新のGPUで300FPS以上、モバイルデバイスで30FPS以上をレンダリングする。
論文 参考訳(メタデータ) (2024-03-08T06:28:09Z) - GAvatar: Animatable 3D Gaussian Avatars with Implicit Mesh Learning [60.33970027554299]
ガウススプラッティングは、明示的(メッシュ)と暗黙的(NeRF)の両方の3D表現の利点を利用する強力な3D表現として登場した。
本稿では,ガウススプラッティングを利用してテキスト記述から現実的なアニマタブルなアバターを生成する。
提案手法であるGAvatarは,テキストプロンプトのみを用いて,多様なアニマタブルアバターを大規模に生成する。
論文 参考訳(メタデータ) (2023-12-18T18:59:12Z) - Gaussian Grouping: Segment and Edit Anything in 3D Scenes [65.49196142146292]
ガウシアン・グルーピング(ガウシアン・グルーピング)はガウシアン・スプラッティングを拡張して,オープンワールドの3Dシーンで何かを共同で再構築・分割する。
暗黙のNeRF表現と比較すると,グループ化された3次元ガウシアンは,高画質,微粒度,高効率で,あらゆるものを3次元で再構成,分割,編集することができる。
論文 参考訳(メタデータ) (2023-12-01T17:09:31Z) - Gaussian Shell Maps for Efficient 3D Human Generation [96.25056237689988]
3次元生成敵ネットワーク(GAN)は、生成資産の最先端(SOTA)品質と多様性を実証している。
しかし、現在の3D GANアーキテクチャはレンダリングが遅いボリューム表現に依存しており、GANのトレーニングを妨害し、マルチビュー非一貫性の2Dアップサンプラーを必要とする。
論文 参考訳(メタデータ) (2023-11-29T18:04:07Z) - Compact 3D Gaussian Representation for Radiance Field [14.729871192785696]
本研究では,3次元ガウス点数を削減するための学習可能なマスク戦略を提案する。
また、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2023-11-22T20:31:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。