論文の概要: 2DGS-Avatar: Animatable High-fidelity Clothed Avatar via 2D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2503.02452v1
- Date: Tue, 04 Mar 2025 09:57:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:04.944256
- Title: 2DGS-Avatar: Animatable High-fidelity Clothed Avatar via 2D Gaussian Splatting
- Title(参考訳): 2DGS-アバター:2Dガウススプラッティングによるアニマタブル高忠実布アバター
- Authors: Qipeng Yan, Mingyang Sun, Lihua Zhang,
- Abstract要約: 本研究では,2DGS-Avatarを提案する。
提案手法は,ポーズによって駆動され,リアルタイムでレンダリングされるアバターを生成する。
3DGSベースの手法と比較して、我々の2DGS-Avatarは、高速なトレーニングとレンダリングの利点を保ちつつ、詳細な、ダイナミック、フォトリアリスティックな外観を捉えている。
- 参考スコア(独自算出の注目度): 10.935483693282455
- License:
- Abstract: Real-time rendering of high-fidelity and animatable avatars from monocular videos remains a challenging problem in computer vision and graphics. Over the past few years, the Neural Radiance Field (NeRF) has made significant progress in rendering quality but behaves poorly in run-time performance due to the low efficiency of volumetric rendering. Recently, methods based on 3D Gaussian Splatting (3DGS) have shown great potential in fast training and real-time rendering. However, they still suffer from artifacts caused by inaccurate geometry. To address these problems, we propose 2DGS-Avatar, a novel approach based on 2D Gaussian Splatting (2DGS) for modeling animatable clothed avatars with high-fidelity and fast training performance. Given monocular RGB videos as input, our method generates an avatar that can be driven by poses and rendered in real-time. Compared to 3DGS-based methods, our 2DGS-Avatar retains the advantages of fast training and rendering while also capturing detailed, dynamic, and photo-realistic appearances. We conduct abundant experiments on popular datasets such as AvatarRex and THuman4.0, demonstrating impressive performance in both qualitative and quantitative metrics.
- Abstract(参考訳): モノクロビデオからの高忠実度およびアニマタブルなアバターのリアルタイムレンダリングは、コンピュータビジョンとグラフィックスにおいて難しい問題である。
ここ数年、Neural Radiance Field (NeRF)はレンダリング品質を著しく向上させてきたが、ボリュームレンダリングの効率が低かったため、実行時のパフォーマンスは低下している。
近年, 3D Gaussian Splatting (3DGS) に基づく手法は, 高速トレーニングやリアルタイムレンダリングにおいて大きな可能性を示している。
しかし、これらはいまだに不正確な幾何学によって引き起こされた人工物に悩まされている。
これらの問題に対処するため、2DGS-Avatarを提案する。これは2DGS(Gaussian Splatting)に基づく2DGS(Gaussian Splatting)に基づく,高忠実で高速なトレーニング性能を持つ被服用アバターをモデル化するための新しいアプローチである。
単眼のRGB動画を入力として,ポーズによって駆動し,リアルタイムにレンダリングできるアバターを生成する。
3DGSベースの手法と比較して、我々の2DGS-Avatarは、高速なトレーニングとレンダリングの利点を保ちつつ、詳細な、ダイナミック、フォトリアリスティックな外観を捉えている。
我々は、AvatarRexやTHuman4.0のような一般的なデータセットで豊富な実験を行い、定性的および定量的な指標の両方において優れた性能を示す。
関連論文リスト
- 3D$^2$-Actor: Learning Pose-Conditioned 3D-Aware Denoiser for Realistic Gaussian Avatar Modeling [37.11454674584874]
ポーズ条件付き3D対応ヒューマンモデリングパイプラインである3D$2$-Actorを導入する。
実験により、3D$2$-アクターは高忠実度アバターモデリングにおいて優れ、新しいポーズに頑健に一般化することを示した。
論文 参考訳(メタデータ) (2024-12-16T09:37:52Z) - Generalizable and Animatable Gaussian Head Avatar [50.34788590904843]
本稿では,GAGAvatar(Generalizable and Animatable Gaussian Head Avatar)を提案する。
我々は、1つの前方通過で1つの画像から3次元ガウスのパラメータを生成する。
提案手法は, 従来の手法と比較して, 再現性や表現精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-10T14:29:00Z) - DreamWaltz-G: Expressive 3D Gaussian Avatars from Skeleton-Guided 2D
Diffusion [69.67970568012599]
テキストからアニマタブルな3Dアバター生成のための新しい学習フレームワークDreamWaltz-Gを提案する。
このフレームワークのコアはScore DistillationとHybrid 3D Gaussian Avatar表現にある。
我々のフレームワークは、人間のビデオ再現や多目的シーン構成など、多様なアプリケーションもサポートしています。
論文 参考訳(メタデータ) (2024-09-25T17:59:45Z) - 3DGS-Avatar: Animatable Avatars via Deformable 3D Gaussian Splatting [32.63571465495127]
3Dガウススプラッティング(3DGS)を用いた単眼ビデオからアニマタブルな人間のアバターを作成する手法を提案する。
我々は、30分以内でトレーニングでき、リアルタイムフレームレート(50以上のFPS)でレンダリングできる非剛性ネットワークを学習する。
実験結果から,本手法は単分子入力によるアニマタブルアバター生成に対する最先端手法と比較して,同等,さらに優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-12-14T18:54:32Z) - ASH: Animatable Gaussian Splats for Efficient and Photoreal Human Rendering [62.81677824868519]
本稿では,動的人間をリアルタイムに写実的にレンダリングするためのアニマタブルなガウススプラッティング手法を提案する。
我々は、被服をアニマタブルな3Dガウスとしてパラメータ化し、画像空間に効率よく切り込み、最終的なレンダリングを生成する。
我々は、ポーズ制御可能なアバターの競合手法を用いてASHをベンチマークし、我々の手法が既存のリアルタイムメソッドよりも大きなマージンで優れており、オフラインメソッドよりも同等またはそれ以上の結果を示すことを示した。
論文 参考訳(メタデータ) (2023-12-10T17:07:37Z) - HeadGaS: Real-Time Animatable Head Avatars via 3D Gaussian Splatting [11.849852156716171]
HeadGaSは3Dガウスプレート(3DGS)を3Dヘッド再構成とアニメーションに使用するモデルである。
我々は,HeadGaSがベースラインを最大2dBまで越えて,リアルタイム推論フレームレートの最先端結果を提供することを示した。
論文 参考訳(メタデータ) (2023-12-05T17:19:22Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。