論文の概要: GaussianGAN: Real-Time Photorealistic controllable Human Avatars
- arxiv url: http://arxiv.org/abs/2509.01681v1
- Date: Mon, 01 Sep 2025 18:01:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.813028
- Title: GaussianGAN: Real-Time Photorealistic controllable Human Avatars
- Title(参考訳): ガウシアンGAN:リアルタイムフォトリアリスティック制御可能な人間のアバター
- Authors: Mohamed Ilyes Lakhal, Richard Bowden,
- Abstract要約: フォトリアリスティックでコントロール可能な人間のアバターは、研究コミュニティで人気を集めている。
本稿では,リアルタイムな人物の写実的レンダリングのためのアニマタブルアバターアプローチであるGaussianGANを提案する。
- 参考スコア(独自算出の注目度): 20.773821519253534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Photorealistic and controllable human avatars have gained popularity in the research community thanks to rapid advances in neural rendering, providing fast and realistic synthesis tools. However, a limitation of current solutions is the presence of noticeable blurring. To solve this problem, we propose GaussianGAN, an animatable avatar approach developed for photorealistic rendering of people in real-time. We introduce a novel Gaussian splatting densification strategy to build Gaussian points from the surface of cylindrical structures around estimated skeletal limbs. Given the camera calibration, we render an accurate semantic segmentation with our novel view segmentation module. Finally, a UNet generator uses the rendered Gaussian splatting features and the segmentation maps to create photorealistic digital avatars. Our method runs in real-time with a rendering speed of 79 FPS. It outperforms previous methods regarding visual perception and quality, achieving a state-of-the-art results in terms of a pixel fidelity of 32.94db on the ZJU Mocap dataset and 33.39db on the Thuman4 dataset.
- Abstract(参考訳): フォトリアリスティックでコントロール可能な人間のアバターは、ニューラルレンダリングの急速な進歩により、研究コミュニティで人気を集め、高速でリアルな合成ツールを提供している。
しかし、現在の解の限界は顕著なぼやけの存在である。
この問題を解決するために,ガウシアンGANを提案する。ガウシアンGANは,リアルタイムな人物の写実的レンダリングのために開発されたアニマタブルアバターアプローチである。
提案手法は, 推定骨格手足の周囲の円筒形構造物の表面からガウス点を構築するための新しいガウススプラッティングデンシフィケーション戦略である。
カメラのキャリブレーションを考慮し、新しいビューセグメンテーションモジュールで正確なセグメンテーションを行う。
最後に、UNetジェネレータは、レンダリングされたガウススプレイティング機能とセグメンテーションマップを使用して、フォトリアリスティックなデジタルアバターを作成する。
本手法は,79FPSのレンダリング速度でリアルタイムに動作させる。
ZJU Mocapデータセットでは32.94db、Thuman4データセットでは33.39dbの画素忠実度で、最先端の結果を達成することで、視覚知覚と品質に関する従来の手法よりも優れていた。
関連論文リスト
- Generalizable and Animatable Gaussian Head Avatar [50.34788590904843]
本稿では,GAGAvatar(Generalizable and Animatable Gaussian Head Avatar)を提案する。
我々は、1つの前方通過で1つの画像から3次元ガウスのパラメータを生成する。
提案手法は, 従来の手法と比較して, 再現性や表現精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-10T14:29:00Z) - Gaussian Deja-vu: Creating Controllable 3D Gaussian Head-Avatars with Enhanced Generalization and Personalization Abilities [10.816370283498287]
本稿では,まず頭部アバターの一般化モデルを取得し,その結果をパーソナライズする「ガウスデジャヴ」(Gaussian Deja-vu)フレームワークを紹介する。
パーソナライズのために、ニューラルネットワークに頼らずに迅速に収束する学習可能な表現認識補正ブレンドマップを提案する。
最先端の3Dガウシアンヘッドアバターをフォトリアリスティックな品質で上回り、既存の方法の少なくとも4分の1のトレーニング時間を短縮する。
論文 参考訳(メタデータ) (2024-09-23T00:11:30Z) - OccGaussian: 3D Gaussian Splatting for Occluded Human Rendering [55.50438181721271]
表面レンダリングにNeRFを用いた従来手法では,閉鎖領域の復元には1日以上,閉塞領域のレンダリングには数秒を要していた。
OccGaussianは3D Gaussian Splattingをベースとして6分以内でトレーニングが可能で,最大160FPSまでの高品質な人体レンダリングを実現する。
論文 参考訳(メタデータ) (2024-04-12T13:00:06Z) - ASH: Animatable Gaussian Splats for Efficient and Photoreal Human Rendering [62.81677824868519]
本稿では,動的人間をリアルタイムに写実的にレンダリングするためのアニマタブルなガウススプラッティング手法を提案する。
我々は、被服をアニマタブルな3Dガウスとしてパラメータ化し、画像空間に効率よく切り込み、最終的なレンダリングを生成する。
我々は、ポーズ制御可能なアバターの競合手法を用いてASHをベンチマークし、我々の手法が既存のリアルタイムメソッドよりも大きなマージンで優れており、オフラインメソッドよりも同等またはそれ以上の結果を示すことを示した。
論文 参考訳(メタデータ) (2023-12-10T17:07:37Z) - Human Gaussian Splatting: Real-time Rendering of Animatable Avatars [8.719797382786464]
この研究は、マルチビュービデオから得られたフォトリアリスティックな人体アバターのリアルタイムレンダリングの問題に対処する。
本稿では,3次元ガウススプラッティングに基づくアニマタブルな人体モデルを提案する。
提案手法は, THuman4データセット上での最先端PSNRの改善を1.5dBで実現し, リアルタイムにレンダリングできる(512x512の80 fps)。
論文 参考訳(メタデータ) (2023-11-28T12:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。