論文の概要: LAGA: Layered 3D Avatar Generation and Customization via Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2405.12663v1
- Date: Tue, 21 May 2024 10:24:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 13:39:22.812135
- Title: LAGA: Layered 3D Avatar Generation and Customization via Gaussian Splatting
- Title(参考訳): LAGA:ガウススプラッティングによる層状3次元アバターの生成とカスタマイズ
- Authors: Jia Gong, Shenyu Ji, Lin Geng Foo, Kang Chen, Hossein Rahmani, Jun Liu,
- Abstract要約: LAGA(Layered Gaussian Avatar)は、多彩な衣服で高忠実で分解可能なアバターを作成できるフレームワークである。
衣料品をアバターから切り離すことで,アバターを衣服レベルで安定的に編集することを可能にする。
提案手法は, 従来の3次元衣料人体生成手法を超越した手法である。
- 参考スコア(独自算出の注目度): 18.613001290226773
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Creating and customizing a 3D clothed avatar from textual descriptions is a critical and challenging task. Traditional methods often treat the human body and clothing as inseparable, limiting users' ability to freely mix and match garments. In response to this limitation, we present LAyered Gaussian Avatar (LAGA), a carefully designed framework enabling the creation of high-fidelity decomposable avatars with diverse garments. By decoupling garments from avatar, our framework empowers users to conviniently edit avatars at the garment level. Our approach begins by modeling the avatar using a set of Gaussian points organized in a layered structure, where each layer corresponds to a specific garment or the human body itself. To generate high-quality garments for each layer, we introduce a coarse-to-fine strategy for diverse garment generation and a novel dual-SDS loss function to maintain coherence between the generated garments and avatar components, including the human body and other garments. Moreover, we introduce three regularization losses to guide the movement of Gaussians for garment transfer, allowing garments to be freely transferred to various avatars. Extensive experimentation demonstrates that our approach surpasses existing methods in the generation of 3D clothed humans.
- Abstract(参考訳): テキストによる記述から3D服のアバターを作り、カスタマイズすることは、重要で難しい課題だ。
伝統的な方法では、人体や衣服を分離不可能として扱い、衣服を自由に混ぜてマッチする能力を制限している。
この制限に対応するために、我々は、多彩な衣服で高忠実な分解可能なアバターを作成できる、慎重に設計された枠組みであるLAGA(Layered Gaussian Avatar)を提示する。
衣料品をアバターから切り離すことで,アバターを衣服レベルで安定的に編集することを可能にする。
我々のアプローチは、各層が特定の衣服や人体そのものに対応する階層構造で組織されたガウス点の集合を用いてアバターをモデル化することから始まります。
高品質な衣服を各層に生成するために,多彩な衣服生成のための粗大な戦略と,人体や他の衣服を含むアバター成分とのコヒーレンスを維持するための新しい二重SDS損失関数を導入する。
さらに,3つの正規化損失を導入し,ガウスの衣服移動を誘導し,衣服を様々なアバターに自由に移動させることを可能にした。
広汎な実験により、我々のアプローチは3D衣料人間の生成において既存の手法を超越していることが示される。
関連論文リスト
- DAGSM: Disentangled Avatar Generation with GS-enhanced Mesh [102.84518904896737]
DAGSMは、与えられたテキストプロンプトから歪んだ人体と衣服を生成する新しいパイプラインである。
まず着ていない体を作り、次に体に基づいて個々の布を生成します。
実験では、DAGSMは高品質なアンタングルアバターを生成し、衣服の交換とリアルなアニメーションをサポートし、視覚的品質においてベースラインを上回っている。
論文 参考訳(メタデータ) (2024-11-20T07:00:48Z) - PuzzleAvatar: Assembling 3D Avatars from Personal Albums [54.831084076478874]
我々は,OOTDアルバムから忠実な3Dアバターを生成する新しいモデルであるPuzzleAvatarを開発した。
学習したトークンを“パズルピース”として利用して,忠実でパーソナライズされた3Dアバターを組み立てます。
論文 参考訳(メタデータ) (2024-05-23T17:59:56Z) - LayGA: Layered Gaussian Avatars for Animatable Clothing Transfer [40.372917698238204]
我々は、体と衣服を2つの別々の層として定式化する新しい表現であるLayGA(LayGA)を提示する。
我々の表現は、ガウスの地図に基づくアバターの上に構築され、衣服の詳細の表現力に優れています。
単層再構成では,滑らかな表面を再構成するための一連の幾何的制約を提案する。
多層フィッティングの段階では、体と衣服を表すために2つの異なるモデルを訓練し、再構築された衣服のジオメトリーを3D監視として活用する。
論文 参考訳(メタデータ) (2024-05-12T16:11:28Z) - DivAvatar: Diverse 3D Avatar Generation with a Single Prompt [95.9978722953278]
DivAvatarは、単一のテキストプロンプトから多様なアバターを生成するフレームワークである。
生成の多様性と視覚的品質を達成するための2つの重要な設計がある。
大規模な実験により、ディヴァバターは様々な外観のアバターを生成するのに非常に多用途であることが示されている。
論文 参考訳(メタデータ) (2024-02-27T08:10:31Z) - AvatarMMC: 3D Head Avatar Generation and Editing with Multi-Modal
Conditioning [61.59722900152847]
GANとLDMに基づく3次元頭部アバター生成・編集手法を提案する。
我々は,LDMの条件付け機能を利用して,事前学習した3D GANの潜伏空間に対するマルチモーダル制御を実現する。
RGB入力やセグメンテーションマスク,グローバル属性などの制御信号が混在した3Dヘッドアバターを生成・編集できる。
論文 参考訳(メタデータ) (2024-02-08T16:41:20Z) - AvatarFusion: Zero-shot Generation of Clothing-Decoupled 3D Avatars
Using 2D Diffusion [34.609403685504944]
ゼロショットテキスト-アバター生成のためのフレームワークであるAvatarFusionを提案する。
我々は遅延拡散モデルを用いて、人間の現実的なアバターを生成するためのピクセルレベルのガイダンスを提供する。
また,身体と衣服の生成を意味的に分離する新たな最適化手法である,PS-DS(Pixel-Semantics Difference-Sampling)を導入する。
論文 参考訳(メタデータ) (2023-07-13T02:19:56Z) - AvatarBooth: High-Quality and Customizable 3D Human Avatar Generation [14.062402203105712]
AvatarBoothはテキストプロンプトや特定の画像を使って高品質な3Dアバターを生成する新しい方法である。
我々の重要な貢献は、二重微調整拡散モデルを用いた正確なアバター生成制御である。
本稿では,3次元アバター生成の粗大な監視を容易にするマルチレゾリューションレンダリング戦略を提案する。
論文 参考訳(メタデータ) (2023-06-16T14:18:51Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - Explicit Clothing Modeling for an Animatable Full-Body Avatar [21.451440299450592]
マルチビューキャプチャービデオから上半身の衣服を明示的に表現したアニマタブルな布製のアバターを製作した。
身体力学と衣服状態の相互作用を学習するために、時間的畳み込みネットワークを用いて衣服潜伏コードの予測を行う。
3つの異なるアクターに対してフォトリアリスティックなアニメーションを出力し、単層アバターよりも布体アバターの利点を実演する。
論文 参考訳(メタデータ) (2021-06-28T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。