論文の概要: Barbie: Text to Barbie-Style 3D Avatars
- arxiv url: http://arxiv.org/abs/2408.09126v6
- Date: Sun, 25 May 2025 08:35:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 14:32:52.536154
- Title: Barbie: Text to Barbie-Style 3D Avatars
- Title(参考訳): バービー:バービースタイルの3Dアバター
- Authors: Xiaokun Sun, Zhenyu Zhang, Ying Tai, Hao Tang, Zili Yi, Jian Yang,
- Abstract要約: 分離可能な靴、アクセサリー、シミュレーション可能な衣服を備えたアニマタブルな3Dアバターを生成するための新しいテキスト駆動フレームワークであるBarbieを提案する。
私たちの枠組みは、象徴的なバービー人形の美学を本当に捉えています。
本フレームワークは,アパレルの組み合わせ,編集,表現型アニメーション,物理シミュレーションなど,多様なアプリケーションを可能にする。
- 参考スコア(独自算出の注目度): 40.286059819579876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To integrate digital humans into everyday life, there is a strong demand for generating high-quality, fine-grained disentangled 3D avatars that support expressive animation and simulation capabilities, ideally from low-cost textual inputs. Although text-driven 3D avatar generation has made significant progress by leveraging 2D generative priors, existing methods still struggle to fulfill all these requirements simultaneously. To address this challenge, we propose Barbie, a novel text-driven framework for generating animatable 3D avatars with separable shoes, accessories, and simulation-ready garments, truly capturing the iconic ``Barbie doll'' aesthetic. The core of our framework lies in an expressive 3D representation combined with appropriate modeling constraints. Unlike previous methods, we innovatively employ G-Shell to uniformly model both watertight components (e.g., bodies, shoes, and accessories) and non-watertight garments compatible with simulation. Furthermore, we introduce a well-designed initialization and a hole regularization loss to ensure clean open surface modeling. These disentangled 3D representations are then optimized by specialized expert diffusion models tailored to each domain, ensuring high-fidelity outputs. To mitigate geometric artifacts and texture conflicts when combining different expert models, we further propose several effective geometric losses and strategies. Extensive experiments demonstrate that Barbie outperforms existing methods in both dressed human and outfit generation. Our framework further enables diverse applications, including apparel combination, editing, expressive animation, and physical simulation. Our project page is: https://xiaokunsun.github.io/Barbie.github.io
- Abstract(参考訳): デジタル人間を日常生活に組み込むためには,低コストテキスト入力から表現力のあるアニメーションとシミュレーション機能をサポートする高品質できめ細かな3Dアバターの需要が強い。
テキスト駆動型3Dアバター生成は2次元生成前の手法を活用することで大きな進歩を遂げてきたが、既存の手法はこれらの要件を同時に満たすのに苦戦している。
この課題に対処するため,本研究では,アニマタブルな3Dアバターを分離可能な靴,アクセサリ,シミュレーション可能な衣服で生成する,新たなテキスト駆動型フレームワークであるBarbieを提案する。
私たちのフレームワークの中核は、適切なモデリング制約と組み合わせて表現力のある3D表現にあります。
従来の手法とは異なり、私たちはG-Shellを用いて、水密成分(体、靴、アクセサリーなど)と非水密成分の両方をシミュレーションに適合させる。
さらに、クリーンな開口面モデリングを保証するために、よく設計された初期化とホール正則化損失を導入する。
これらの非絡み合った3次元表現は、各領域に合わせた専門的な拡散モデルによって最適化され、高忠実度出力が保証される。
異なる専門家モデルを組み合わせる場合の幾何学的アーティファクトとテクスチャの衝突を軽減するため、より効果的な幾何的損失と戦略を提案する。
大規模な実験では、バービーは服装と服装の両方で既存の方法よりも優れていた。
本フレームワークは,アパレルの組み合わせ,編集,表現型アニメーション,物理シミュレーションなど,多様なアプリケーションを可能にする。
私たちのプロジェクトページは以下のとおりです。
関連論文リスト
- Layered 3D Human Generation via Semantic-Aware Diffusion Model [63.459666003261276]
本稿では,新しい意味認識拡散モデルに基づくテキスト駆動型3次元人文生成フレームワークを提案する。
生成した衣服を対象のテキストと整合性を保つために,衣服のセマンティック・信頼戦略を提案する。
そこで本研究では,SMPLによる暗黙的フィールド変形ネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-10T07:34:43Z) - Text-Guided Generation and Editing of Compositional 3D Avatars [59.584042376006316]
私たちのゴールは、テキスト記述だけで髪とアクセサリーを備えたリアルな3D顔アバターを作ることです。
既存の方法はリアリズムを欠いているか、非現実的な形状を作り出すか、編集をサポートしていないかのいずれかである。
論文 参考訳(メタデータ) (2023-09-13T17:59:56Z) - Learning Disentangled Avatars with Hybrid 3D Representations [102.9632315060652]
本稿では,DELTA(Disentangled Avatars)について述べる。
身体と衣服の絡み合いを考慮し、第二に顔と髪を縮めます。
これら2つのアプリケーションを簡単に組み合わせて、フルボディアバターをモデル化する方法を示す。
論文 参考訳(メタデータ) (2023-09-12T17:59:36Z) - AvatarFusion: Zero-shot Generation of Clothing-Decoupled 3D Avatars
Using 2D Diffusion [34.609403685504944]
ゼロショットテキスト-アバター生成のためのフレームワークであるAvatarFusionを提案する。
我々は遅延拡散モデルを用いて、人間の現実的なアバターを生成するためのピクセルレベルのガイダンスを提供する。
また,身体と衣服の生成を意味的に分離する新たな最適化手法である,PS-DS(Pixel-Semantics Difference-Sampling)を導入する。
論文 参考訳(メタデータ) (2023-07-13T02:19:56Z) - AvatarBooth: High-Quality and Customizable 3D Human Avatar Generation [14.062402203105712]
AvatarBoothはテキストプロンプトや特定の画像を使って高品質な3Dアバターを生成する新しい方法である。
我々の重要な貢献は、二重微調整拡散モデルを用いた正確なアバター生成制御である。
本稿では,3次元アバター生成の粗大な監視を容易にするマルチレゾリューションレンダリング戦略を提案する。
論文 参考訳(メタデータ) (2023-06-16T14:18:51Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - gDNA: Towards Generative Detailed Neural Avatars [94.9804106939663]
我々のモデルでは,多様で詳細な衣服を身に着けた自然の人間のアバターを生成できることが示されている。
本手法は,人間のモデルを生のスキャンに適合させる作業に使用することができ,従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-01-11T18:46:38Z) - The Power of Points for Modeling Humans in Clothing [60.00557674969284]
現在、アーティストはリアルな衣服で自然に動く3Dアバターを作る必要がある。
3次元表現は様々なトポロジを高分解能で捉えることができ、データから学習できることを示す。
我々は、異なる衣服の形状を表現するために、新しい局所的な衣服幾何学的特徴を持つニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2021-09-02T17:58:45Z) - Explicit Clothing Modeling for an Animatable Full-Body Avatar [21.451440299450592]
マルチビューキャプチャービデオから上半身の衣服を明示的に表現したアニマタブルな布製のアバターを製作した。
身体力学と衣服状態の相互作用を学習するために、時間的畳み込みネットワークを用いて衣服潜伏コードの予測を行う。
3つの異なるアクターに対してフォトリアリスティックなアニメーションを出力し、単層アバターよりも布体アバターの利点を実演する。
論文 参考訳(メタデータ) (2021-06-28T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。