論文の概要: Animatable 3D Gaussians for High-fidelity Synthesis of Human Motions
- arxiv url: http://arxiv.org/abs/2311.13404v2
- Date: Mon, 27 Nov 2023 02:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 10:00:49.079532
- Title: Animatable 3D Gaussians for High-fidelity Synthesis of Human Motions
- Title(参考訳): 人体運動の高忠実合成のためのアニマタブルな3次元ガウス
- Authors: Keyang Ye, Tianjia Shao, Kun Zhou
- Abstract要約: 本稿では,高忠実度自由視点人間の動きをリアルタイムにレンダリングするための,アニマタブルな3次元ガウスモデルを提案する。
既存のNeRFベースの手法と比較して、このモデルはビデオフレーム間のジッタリングの問題なく、高周波の詳細で優れた能力を持っている。
- 参考スコア(独自算出の注目度): 37.50707388577952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel animatable 3D Gaussian model for rendering high-fidelity
free-view human motions in real time. Compared to existing NeRF-based methods,
the model owns better capability in synthesizing high-frequency details without
the jittering problem across video frames. The core of our model is a novel
augmented 3D Gaussian representation, which attaches each Gaussian with a
learnable code. The learnable code serves as a pose-dependent appearance
embedding for refining the erroneous appearance caused by geometric
transformation of Gaussians, based on which an appearance refinement model is
learned to produce residual Gaussian properties to match the appearance in
target pose. To force the Gaussians to learn the foreground human only without
background interference, we further design a novel alpha loss to explicitly
constrain the Gaussians within the human body. We also propose to jointly
optimize the human joint parameters to improve the appearance accuracy. The
animatable 3D Gaussian model can be learned with shallow MLPs, so new human
motions can be synthesized in real time (66 fps on avarage). Experiments show
that our model has superior performance over NeRF-based methods.
- Abstract(参考訳): 本稿では,高忠実度自由視人間の動きをリアルタイムに再現する,新しい3次元ガウスモデルを提案する。
既存のNeRF方式と比較して、このモデルはビデオフレーム間のジッタリング問題なく高周波の詳細を合成する能力が優れている。
我々のモデルの中核は、学習可能なコードで各ガウスをアタッチする、新しい3Dガウス表現である。
学習可能なコードは、ガウスの幾何学的変換によって生じる誤った外観を精錬するためのポーズ依存的外観埋め込みとして機能する。
ガウス人に対し,背景干渉を伴わずに前景の人間を学習させるため,人体内でガウス人を明確に拘束する新たなアルファロスをデザインする。
また,人間の関節パラメータを共同で最適化し,外観精度を向上させることを提案する。
アニマタブルな3Dガウスモデルは浅いMPPで学習できるので、新しい人間の動きをリアルタイムで合成することができる(66 fps/avarage)。
実験により,本モデルはNeRF法よりも優れた性能を示した。
関連論文リスト
- HFGaussian: Learning Generalizable Gaussian Human with Integrated Human Features [23.321087432786605]
HFGaussianと呼ばれる新しいアプローチでは、25FPSでスパルス入力画像から3Dスケルトン、3Dキーポイント、高密度ポーズなどの新しいビューや人間の特徴をリアルタイムで推定できる。
我々は,HFGaussの手法をヒトガウススプラッティングにおける最新の最先端技術に対して徹底的に評価し,そのリアルタイム,最先端性能を示す。
論文 参考訳(メタデータ) (2024-11-05T13:31:04Z) - GST: Precise 3D Human Body from a Single Image with Gaussian Splatting Transformers [23.96688843662126]
我々は,ガウスの混合体からなるシーン表現である3Dガウススプレイティング(3DGS)をベースとした。
この組み合わせは、テスト時間最適化なしで単一の画像から3次元人間のモデルを高速に推定できることを示す。
また,衣服などのバリエーションを考慮に入れた人体モデルにより,3次元ポーズ推定の改善が期待できることを示す。
論文 参考訳(メタデータ) (2024-09-06T11:34:24Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - Spec-Gaussian: Anisotropic View-Dependent Appearance for 3D Gaussian Splatting [55.71424195454963]
Spec-Gaussian は球面調和の代わりに異方性球面ガウス場を利用するアプローチである。
実験結果から,本手法はレンダリング品質の面で既存の手法を超越していることが示された。
この改良は、3D GSの適用性を高めて、特異面と異方面の複雑なシナリオを扱う。
論文 参考訳(メタデータ) (2024-02-24T17:22:15Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - GAvatar: Animatable 3D Gaussian Avatars with Implicit Mesh Learning [60.33970027554299]
ガウススプラッティングは、明示的(メッシュ)と暗黙的(NeRF)の両方の3D表現の利点を利用する強力な3D表現として登場した。
本稿では,ガウススプラッティングを利用してテキスト記述から現実的なアニマタブルなアバターを生成する。
提案手法であるGAvatarは,テキストプロンプトのみを用いて,多様なアニマタブルアバターを大規模に生成する。
論文 参考訳(メタデータ) (2023-12-18T18:59:12Z) - GauHuman: Articulated Gaussian Splatting from Monocular Human Videos [58.553979884950834]
GauHumanは、高速トレーニング(12分)とリアルタイムレンダリング(最大189FPS)の両方のためのガウススプラッティングを備えた3次元人体モデルである。
ガウフマンはカノニカル空間でガウススプラッティングを符号化し、3次元ガウスを線形ブレンドスキンニング(LBS)で正標準空間からポーズ空間に変換する
ZJU_MocapとMonoCapデータセットの実験は、GauHumanが高速なトレーニングとリアルタイムレンダリング速度によって、最先端のパフォーマンスを定量的に質的に達成していることを示している。
論文 参考訳(メタデータ) (2023-12-05T18:59:14Z) - HumanGaussian: Text-Driven 3D Human Generation with Gaussian Splatting [113.37908093915837]
既存の方法は、スコア蒸留サンプリング(SDS)を通じてメッシュやニューラルフィールドのような3D表現を最適化する。
本稿では,高精細な形状とリアルな外観を持つ高品質な3D人間を創出する,効率的かつ効果的な枠組みであるHumanGaussianを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:59:58Z) - SplatArmor: Articulated Gaussian splatting for animatable humans from
monocular RGB videos [15.74530749823217]
SplatArmorは, 3次元ガウスモデルを用いたパラメータ化ボディモデルの装甲により, 詳細かつアニマタブルな人体モデルを復元する新しい手法である。
我々のアプローチは、人間を標準空間内の3次元ガウスの集合として表現し、その記述は、下層のSMPL幾何学のスキン化を拡張することによって定義される。
ZJU MoCap と People Snapshot のデータセットに魅力的な結果が得られた。
論文 参考訳(メタデータ) (2023-11-17T18:47:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。