論文の概要: Towards Efficient 3D Gaussian Human Avatar Compression: A Prior-Guided Framework
- arxiv url: http://arxiv.org/abs/2510.10492v1
- Date: Sun, 12 Oct 2025 07:50:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.973505
- Title: Towards Efficient 3D Gaussian Human Avatar Compression: A Prior-Guided Framework
- Title(参考訳): 3次元ガウスヒトアバター圧縮の効率化に向けて--事前ガイドによるフレームワーク
- Authors: Shanzhi Yin, Bolin Chen, Xinju Wu, Ru-Ling Liao, Jie Chen, Shiqi Wang, Yan Ye,
- Abstract要約: 本稿では,超低ビットレートで高品質な3次元アバター映像圧縮を実現するための,効率的な3次元アバター符号化フレームワークを提案する。
提案手法は従来の2D/3Dコーデックと既存の学習可能な動的3Dガウススプラッティング圧縮法を大きく上回る。
- 参考スコア(独自算出の注目度): 19.464262452201996
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper proposes an efficient 3D avatar coding framework that leverages compact human priors and canonical-to-target transformation to enable high-quality 3D human avatar video compression at ultra-low bit rates. The framework begins by training a canonical Gaussian avatar using articulated splatting in a network-free manner, which serves as the foundation for avatar appearance modeling. Simultaneously, a human-prior template is employed to capture temporal body movements through compact parametric representations. This decomposition of appearance and temporal evolution minimizes redundancy, enabling efficient compression: the canonical avatar is shared across the sequence, requiring compression only once, while the temporal parameters, consisting of just 94 parameters per frame, are transmitted with minimal bit-rate. For each frame, the target human avatar is generated by deforming canonical avatar via Linear Blend Skinning transformation, facilitating temporal coherent video reconstruction and novel view synthesis. Experimental results demonstrate that the proposed method significantly outperforms conventional 2D/3D codecs and existing learnable dynamic 3D Gaussian splatting compression method in terms of rate-distortion performance on mainstream multi-view human video datasets, paving the way for seamless immersive multimedia experiences in meta-verse applications.
- Abstract(参考訳): 本稿では,高画質な3次元アバタービデオ圧縮を実現するために,コンパクトな人間の先行と標準からターゲットへの変換を利用する,効率的な3次元アバター符号化フレームワークを提案する。
このフレームワークは、アバターの外観モデリングの基礎となるネットワークのない方法で、明瞭なスプラッティングを用いて標準ガウスアバターを訓練することから始まる。
同時に、コンパクトなパラメトリック表現を通して時間的身体の動きを捉えるために、人間優先テンプレートが使用される。
この外観と時間的進化の分解は冗長性を最小化し、効率のよい圧縮を可能にし、正準アバターは1回だけ圧縮を必要とするが、時間的パラメータは1フレームあたり94個のパラメータで、最小ビットレートで送信される。
各フレームに対して、対象のヒトアバターは、リニアブレンドスキニング変換を介してカノニカルアバターを変形させ、時間的コヒーレントなビデオ再構成と新規なビュー合成を容易にする。
実験により,提案手法は従来の2D/3Dコーデックと既存の学習可能な動的3Dガウススプラッティング圧縮法を,主流のマルチビュー映像データセット上でのレート歪み性能で大幅に向上し,メタバースアプリケーションにおけるシームレスな没入型マルチメディア体験の道を開いた。
関連論文リスト
- D-FCGS: Feedforward Compression of Dynamic Gaussian Splatting for Free-Viewpoint Videos [12.24209693552492]
自由視点ビデオ(FVV)は没入型3D体験を可能にするが、動的3D表現の効率的な圧縮は依然として大きな課題である。
本稿では,時間的に相関したガウス点雲列を圧縮する新しいフィードフォワードフレームワークである動的ガウス散乱(D-FCGS)のフィードフォワード圧縮を提案する。
実験の結果,最適化手法の速度歪み特性と一致し,40倍以上の圧縮を2秒以内で達成した。
論文 参考訳(メタデータ) (2025-07-08T10:39:32Z) - PF-LHM: 3D Animatable Avatar Reconstruction from Pose-free Articulated Human Images [23.745241278910946]
PF-LHMは、1つまたは複数のカジュアルにキャプチャされたポーズレス画像から、高品質な3Dアバターを秒間に生成する大規模な人間再構成モデルである。
カメラや人間のポーズアノテーションを必要とせず、高忠実でアニマタブルな3次元アバターを実現する。
論文 参考訳(メタデータ) (2025-06-16T17:59:56Z) - Parametric Gaussian Human Model: Generalizable Prior for Efficient and Realistic Human Avatar Modeling [32.480049588166544]
フォトとアニマタブルな人間のアバターは、バーチャル/拡張現実、テレプレゼンス、デジタルエンターテイメントの鍵となる。
本稿では,人間を3DGSに統合する汎用的で効率的なフレームワークであるParametric Gaussian Human Model(PGHM)を提案する。
実験の結果、PGHMは最適化からスクラッチまでの手法よりもはるかに効率が良く、1被写体あたり約20分で同等の視覚的品質のアバターを生産できることがわかった。
論文 参考訳(メタデータ) (2025-06-07T03:53:30Z) - SEGA: Drivable 3D Gaussian Head Avatar from a Single Image [15.117619290414064]
本稿では,3次元ドライビング可能なガウスヘッドアバターの新規な手法であるSEGAを提案する。
SEGAは、大規模な2Dデータセットから派生した先行データと、マルチビュー、マルチ圧縮、マルチIDデータから得られた3D先行データとをシームレスに結合する。
提案手法は, 一般化能力, アイデンティティ保存, 表現リアリズムにおいて, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-19T18:23:31Z) - FRESA: Feedforward Reconstruction of Personalized Skinned Avatars from Few Images [74.86864398919467]
数枚の画像からリアルなアニメーションで、パーソナライズされた3Dアバターを再構成する新しい手法を提案する。
我々は、1000人以上の服を着た人間から普遍的な事前学習を行い、即時フィードフォワード生成とゼロショット一般化を実現する。
提案手法は, 最新技術よりも忠実な再構築とアニメーションを生成し, カジュアルに撮影された携帯電話写真からの入力に直接一般化することができる。
論文 参考訳(メタデータ) (2025-03-24T23:20:47Z) - Deblur-Avatar: Animatable Avatars from Motion-Blurred Monocular Videos [64.10307207290039]
本研究では,モーションブルモノクロビデオ入力から高忠実でアニマタブルな3次元アバターをモデリングするための新しいフレームワークを提案する。
被曝時の人体運動軌跡を明示的にモデル化することにより、鋭く高品質な人体アバターを再構築するために、軌跡と3Dガウスアンを共同で最適化する。
論文 参考訳(メタデータ) (2025-01-23T02:31:57Z) - Sequential Gaussian Avatars with Hierarchical Motion Context [7.6736633105043515]
SMPLで駆動される3DGSのヒトアバターは、フィット中のポーズから外観への複雑なマッピングにより、外観の細部を捉えるのに苦労する。
階層的な動きコンテキストに基づいて,人間のアバターをより良くモデル化するために,明示的な3DGS表現を探索するSeqAvatarを提案する。
提案手法は3DGSによるアプローチよりも優れており,最新のNeRFモデルよりも桁違いに高速に人間のアバターをレンダリングする。
論文 参考訳(メタデータ) (2024-11-25T04:05:19Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。