論文の概要: LayerGS: Decomposition and Inpainting of Layered 3D Human Avatars via 2D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2601.05853v1
- Date: Fri, 09 Jan 2026 15:30:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:50.005697
- Title: LayerGS: Decomposition and Inpainting of Layered 3D Human Avatars via 2D Gaussian Splatting
- Title(参考訳): LayerGS: 2次元ガウススプレイティングによる3次元アバターの分解と塗布
- Authors: Yinghan Xu, John Dingliana,
- Abstract要約: 任意に配置された人間をアニマタブルな多層型3次元アバターに分解する新しい枠組みを提案する。
提案手法は,従来の最先端技術よりも優れたレンダリング品質と層分解,再構成を実現する。
- 参考スコア(独自算出の注目度): 0.7176107039687231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel framework for decomposing arbitrarily posed humans into animatable multi-layered 3D human avatars, separating the body and garments. Conventional single-layer reconstruction methods lock clothing to one identity, while prior multi-layer approaches struggle with occluded regions. We overcome both limitations by encoding each layer as a set of 2D Gaussians for accurate geometry and photorealistic rendering, and inpainting hidden regions with a pretrained 2D diffusion model via score-distillation sampling (SDS). Our three-stage training strategy first reconstructs the coarse canonical garment via single-layer reconstruction, followed by multi-layer training to jointly recover the inner-layer body and outer-layer garment details. Experiments on two 3D human benchmark datasets (4D-Dress, Thuman2.0) show that our approach achieves better rendering quality and layer decomposition and recomposition than the previous state-of-the-art, enabling realistic virtual try-on under novel viewpoints and poses, and advancing practical creation of high-fidelity 3D human assets for immersive applications. Our code is available at https://github.com/RockyXu66/LayerGS
- Abstract(参考訳): 本研究では,人体と衣服を分離したアニマタブルな多層型3次元アバターを任意に分解する新しい枠組みを提案する。
従来の単一層再構築手法は衣服を1つのアイデンティティにロックするが、従来の多層化手法は隠蔽領域と競合する。
我々は,各層を正確な幾何学とフォトリアリスティックレンダリングのための2次元ガウスアンの集合として符号化し,スコア蒸留サンプリング(SDS)による事前学習された2次元拡散モデルで隠れた領域を塗布することにより,両方の制限を克服する。
3段階のトレーニング戦略では,まず1層再構築により粗い正正装を再構築し,その後に多層トレーニングを行い,内層と外層の詳細を共同で修復する。
2つの人体ベンチマークデータセット(4D-Dress, T Human2.0)の実験により、我々の手法は従来の最先端技術よりも優れたレンダリング品質と層分解と再構成を実現し、新しい視点とポーズの下で現実的な仮想試行を可能にし、没入型アプリケーションのための高忠実な3Dヒューマンアセットの実現を推進している。
私たちのコードはhttps://github.com/RockyXu66/LayerGSで利用可能です。
関連論文リスト
- PFAvatar: Pose-Fusion 3D Personalized Avatar Reconstruction from Real-World Outfit-of-the-Day Photos [24.8968050268664]
PFAvatarは、OOTD(Outfit of the Day)の写真から高品質な3Dアバターを再構築する新しい方法だ。
従来の手法に比べて48倍の高速化を実現し, パーソナライズをわずか5分で完了した。
論文 参考訳(メタデータ) (2025-11-17T03:40:43Z) - ReMu: Reconstructing Multi-layer 3D Clothed Human from Image Layers [3.046315755726937]
本稿では,多層布を施した人間を画像層に再構成するReMuを提案する。
まず,標準体ポーズによって定義された共有座標系を用いて,各衣服層を再構成・整列する。
なお,本手法はテンプレートフリーでカテゴリ非依存であり,多様な衣服スタイルで3D衣服を復元することができる。
論文 参考訳(メタデータ) (2025-08-02T14:24:47Z) - AdaHuman: Animatable Detailed 3D Human Generation with Compositional Multiview Diffusion [56.12859795754579]
AdaHumanは、単一のアプリ内画像から高忠実でアニマタブルな3Dアバターを生成する新しいフレームワークである。
AdaHumanはポーズ条件付き3D共同拡散モデルと合成3DGS精製モジュールという2つの重要なイノベーションを取り入れている。
論文 参考訳(メタデータ) (2025-05-30T17:59:54Z) - Arc2Avatar: Generating Expressive 3D Avatars from a Single Image via ID Guidance [69.9745497000557]
本稿では,人間の顔の基盤モデルを用いた最初のSDSベースの手法であるArc2Avatarについて述べる。
我々のアバターは人間の顔メッシュテンプレートとの密接な対応を維持しており、ブレンドシェープによる表現生成を可能にしている。
論文 参考訳(メタデータ) (2025-01-09T17:04:33Z) - DreamDance: Animating Human Images by Enriching 3D Geometry Cues from 2D Poses [57.17501809717155]
本研究では,骨格ポーズシーケンスのみを条件入力として,人間のイメージをアニメーションする新しい手法であるDreamDanceを提案する。
私たちの重要な洞察は、人間の画像は自然に複数のレベルの相関を示すということです。
我々は5Kの高品質なダンスビデオと詳細なフレームアノテーションを組み合わせたTikTok-Dance5Kデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-30T08:42:13Z) - GALA: Generating Animatable Layered Assets from a Single Scan [20.310367593475508]
GALAは, 単層布3次元メッシュを入力として, 完全な多層3次元アセットに分解するフレームワークである。
出力は、他の資産と組み合わせて、新しい人間のアバターを作ることができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:59Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。