論文の概要: Generalizable Human Gaussians from Single-View Image
- arxiv url: http://arxiv.org/abs/2406.06050v1
- Date: Mon, 10 Jun 2024 06:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 14:46:46.903546
- Title: Generalizable Human Gaussians from Single-View Image
- Title(参考訳): 単一視点画像からの一般人ガウス
- Authors: Jinnan Chen, Chen Li, Jianfeng Zhang, Hanlin Chen, Buzhen Huang, Gim Hee Lee,
- Abstract要約: 単一画像からの3次元人体モデリングのための拡散誘導フレームワークであるHGM(Single-view Generalizable Human Gaussian Model)を提案する。
観察されていない視点を幻覚させる効果はあるが、このアプローチは監督の欠如により非現実的な人間のポーズや形を生み出す可能性がある。
公開データセットに対する我々のアプローチを検証し、PSNRとSSIMの点で最先端の手法を大幅に上回っていることを示す。
- 参考スコア(独自算出の注目度): 54.712838657788566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we tackle the task of learning generalizable 3D human Gaussians from a single image. The main challenge for this task is to recover detailed geometry and appearance, especially for the unobserved regions. To this end, we propose single-view generalizable Human Gaussian model (HGM), a diffusion-guided framework for 3D human modeling from a single image. We design a diffusion-based coarse-to-fine pipeline, where the diffusion model is adapted to refine novel-view images rendered from a coarse human Gaussian model. The refined images are then used together with the input image to learn a refined human Gaussian model. Although effective in hallucinating the unobserved views, the approach may generate unrealistic human pose and shapes due to the lack of supervision. We circumvent this problem by further encoding the geometric priors from SMPL model. Specifically, we propagate geometric features from SMPL volume to the predicted Gaussians via sparse convolution and attention mechanism. We validate our approach on publicly available datasets and demonstrate that it significantly surpasses state-of-the-art methods in terms of PSNR and SSIM. Additionally, our method exhibits strong generalization for in-the-wild images.
- Abstract(参考訳): 本研究では,1つの画像から一般化可能な3次元ガウシアンを学習する作業に取り組む。
このタスクの主な課題は、特に観測されていない領域において、詳細な幾何学と外観を回復することである。
この目的のために, 単一画像からの3次元人体モデリングのための拡散誘導フレームワークであるHGM(Single-view Generalizable Human Gaussian Model)を提案する。
本研究では, 拡散モデルを用いて, 粗い人間のガウスモデルから表現された新しいビュー画像を洗練するための拡散に基づく粗いパイプラインを設計する。
次に、洗練された画像と入力画像とを併用して、洗練された人間のガウスモデルを学ぶ。
観察されていない視点を幻覚させる効果はあるが、このアプローチは監督の欠如により非現実的な人間のポーズや形を生み出す可能性がある。
SMPLモデルから幾何学的先行情報をさらにエンコードすることでこの問題を回避する。
具体的には,SMPL体積の幾何学的特徴を,スパース畳み込みとアテンション機構によって予測されたガウシアンに伝達する。
公開データセットに対する我々のアプローチを検証し、PSNRとSSIMの点で最先端の手法を大幅に上回っていることを示す。
さらに,本手法では,画像の高精細化を図っている。
関連論文リスト
- Generalizable Human Gaussians for Sparse View Synthesis [48.47812125126829]
そこで本研究では,光写実的かつ正確な視線レンダリングを可能にする,一般化可能なヒトガウシアンを学習するための新しい手法を提案する。
このアプローチの重要な革新は、3次元ガウスパラメータの学習を、人間のテンプレートの2次元UV空間上で定義された回帰プロセスに再構成することである。
提案手法は,データ内一般化とクロスデータセット一般化設定の両方において,最近の手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-17T17:56:30Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - 3D Human Reconstruction in the Wild with Synthetic Data Using Generative Models [52.96248836582542]
本稿では,人間の画像とそれに対応する3Dメッシュアノテーションをシームレスに生成できるHumanWildという,最近の拡散モデルに基づく効果的なアプローチを提案する。
生成モデルを排他的に活用することにより,大規模な人体画像と高品質なアノテーションを生成し,実世界のデータ収集の必要性を解消する。
論文 参考訳(メタデータ) (2024-03-17T06:31:16Z) - Template-Free Single-View 3D Human Digitalization with Diffusion-Guided LRM [29.13412037370585]
本稿では,拡散誘導フィードフォワードモデルであるHuman-LRMを提案する。
本手法は,例えばSMPLなどのテンプレートを使わずにヒトを捕獲し,リッチでリアルなディテールで咬合部を効果的に増強することができる。
論文 参考訳(メタデータ) (2024-01-22T18:08:22Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - Animatable 3D Gaussians for High-fidelity Synthesis of Human Motions [37.50707388577952]
本稿では,高忠実度自由視点人間の動きをリアルタイムにレンダリングするための,アニマタブルな3次元ガウスモデルを提案する。
既存のNeRFベースの手法と比較して、このモデルはビデオフレーム間のジッタリングの問題なく、高周波の詳細で優れた能力を持っている。
論文 参考訳(メタデータ) (2023-11-22T14:00:23Z) - SplatArmor: Articulated Gaussian splatting for animatable humans from
monocular RGB videos [15.74530749823217]
SplatArmorは, 3次元ガウスモデルを用いたパラメータ化ボディモデルの装甲により, 詳細かつアニマタブルな人体モデルを復元する新しい手法である。
我々のアプローチは、人間を標準空間内の3次元ガウスの集合として表現し、その記述は、下層のSMPL幾何学のスキン化を拡張することによって定義される。
ZJU MoCap と People Snapshot のデータセットに魅力的な結果が得られた。
論文 参考訳(メタデータ) (2023-11-17T18:47:07Z) - Adversarial Parametric Pose Prior [106.12437086990853]
我々は、SMPLパラメータを現実的なポーズを生成する値に制限する事前学習を行う。
得られた先行学習は実データ分布の多様性をカバーし、2次元キーポイントからの3次元再構成の最適化を容易にし、画像からの回帰に使用する場合のポーズ推定精度を向上することを示す。
論文 参考訳(メタデータ) (2021-12-08T10:05:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。