論文の概要: Disentangled Clothed Avatar Generation with Layered Representation
- arxiv url: http://arxiv.org/abs/2501.04631v1
- Date: Wed, 08 Jan 2025 17:27:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-09 14:55:51.281876
- Title: Disentangled Clothed Avatar Generation with Layered Representation
- Title(参考訳): 層状表現を用いたアンタングル型アバター生成
- Authors: Weitian Zhang, Sijing Wu, Manwen Liao, Yichao Yan,
- Abstract要約: 衣服付きアバター生成は、仮想現実や拡張現実、映画製作などに広く応用されている。
従来は多種多様なデジタルアバターの生成に成功していたが、部品が絡み合わなかったアバターの生成は長年の課題であった。
本研究では,部品間距離の異なる布地アバターを生成するフィードフォワード拡散に基づく第1の方法であるLayerAvatarを提案する。
- 参考スコア(独自算出の注目度): 5.775559930050691
- License:
- Abstract: Clothed avatar generation has wide applications in virtual and augmented reality, filmmaking, and more. Previous methods have achieved success in generating diverse digital avatars, however, generating avatars with disentangled components (\eg, body, hair, and clothes) has long been a challenge. In this paper, we propose LayerAvatar, the first feed-forward diffusion-based method for generating component-disentangled clothed avatars. To achieve this, we first propose a layered UV feature plane representation, where components are distributed in different layers of the Gaussian-based UV feature plane with corresponding semantic labels. This representation supports high-resolution and real-time rendering, as well as expressive animation including controllable gestures and facial expressions. Based on the well-designed representation, we train a single-stage diffusion model and introduce constrain terms to address the severe occlusion problem of the innermost human body layer. Extensive experiments demonstrate the impressive performances of our method in generating disentangled clothed avatars, and we further explore its applications in component transfer. The project page is available at: https://olivia23333.github.io/LayerAvatar/
- Abstract(参考訳): 衣服付きアバター生成は、仮想現実や拡張現実、映画製作などに広く応用されている。
従来は多種多様なデジタルアバターの生成に成功していたが、部品が絡まったアバター(卵、体、毛髪、衣服)を生産することが長年の課題であった。
本稿では,部品間距離の異なるアバターを初めてフィードフォワード拡散法により生成するLayerAvatarを提案する。
そこで我々はまず,GussianベースのUV特徴平面の異なる層に,対応する意味ラベルを持つコンポーネントを分散したUV特徴平面表現を提案する。
この表現は高解像度でリアルタイムなレンダリングをサポートし、制御可能なジェスチャーや表情を含む表現力のあるアニメーションもサポートする。
そこで我々は, 十分に設計された表現に基づいて, 単一段階拡散モデルを訓練し, 内部の人体層における重篤な閉塞問題に対処するための制約項を導入する。
広汎な実験により,無絡布アバターの生成における本手法の顕著な性能を実証し,そのコンポーネント転送への応用について検討した。
プロジェクトページは、https://olivia23333.github.io/LayerAvatar/.com/で公開されている。
関連論文リスト
- Arc2Avatar: Generating Expressive 3D Avatars from a Single Image via ID Guidance [69.9745497000557]
本稿では,人間の顔の基盤モデルを用いた最初のSDSベースの手法であるArc2Avatarについて述べる。
我々のアバターは人間の顔メッシュテンプレートとの密接な対応を維持しており、ブレンドシェープによる表現生成を可能にしている。
論文 参考訳(メタデータ) (2025-01-09T17:04:33Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - DivAvatar: Diverse 3D Avatar Generation with a Single Prompt [95.9978722953278]
DivAvatarは、単一のテキストプロンプトから多様なアバターを生成するフレームワークである。
生成の多様性と視覚的品質を達成するための2つの重要な設計がある。
大規模な実験により、ディヴァバターは様々な外観のアバターを生成するのに非常に多用途であることが示されている。
論文 参考訳(メタデータ) (2024-02-27T08:10:31Z) - AvatarStudio: High-fidelity and Animatable 3D Avatar Creation from Text [71.09533176800707]
アバターストゥディオ(AvatarStudio)は、アニマタブルな人間のアバターのために、明瞭なテクスチャ化された3Dメッシュを生成する粗大で微細な生成モデルである。
調音メッシュ表現とDensePose条件拡散モデルとの相乗効果を効果的に活用することにより、AvatarStudioは高品質なアバターを作成することができる。
論文 参考訳(メタデータ) (2023-11-29T18:59:32Z) - HAVE-FUN: Human Avatar Reconstruction from Few-Shot Unconstrained Images [33.298962236215964]
数枚の写真アルバムからのヒトアバターの復元について検討した。
動的データを扱うために,深行テトラヘドラとスキン機構を統合する。
私たちのフレームワークはHaveFunと呼ばれ、アバターの再構築、レンダリング、アニメーションを実行できます。
論文 参考訳(メタデータ) (2023-11-27T10:01:31Z) - MagicAvatar: Multimodal Avatar Generation and Animation [70.55750617502696]
MagicAvatarは、人間のアバターのマルチモーダルビデオ生成とアニメーションのためのフレームワークである。
アバター・ビデオ生成は、マルチモーダル・トゥ・モーションとモーション・トゥ・ビデオ・ジェネレーションの2段階に分けられる。
我々は,テキスト誘導アバター生成やビデオ誘導アバター生成など,様々な応用を通じてMagicAvatarの柔軟性を実証する。
論文 参考訳(メタデータ) (2023-08-28T17:56:18Z) - AvatarFusion: Zero-shot Generation of Clothing-Decoupled 3D Avatars
Using 2D Diffusion [34.609403685504944]
ゼロショットテキスト-アバター生成のためのフレームワークであるAvatarFusionを提案する。
我々は遅延拡散モデルを用いて、人間の現実的なアバターを生成するためのピクセルレベルのガイダンスを提供する。
また,身体と衣服の生成を意味的に分離する新たな最適化手法である,PS-DS(Pixel-Semantics Difference-Sampling)を導入する。
論文 参考訳(メタデータ) (2023-07-13T02:19:56Z) - AvatarBooth: High-Quality and Customizable 3D Human Avatar Generation [14.062402203105712]
AvatarBoothはテキストプロンプトや特定の画像を使って高品質な3Dアバターを生成する新しい方法である。
我々の重要な貢献は、二重微調整拡散モデルを用いた正確なアバター生成制御である。
本稿では,3次元アバター生成の粗大な監視を容易にするマルチレゾリューションレンダリング戦略を提案する。
論文 参考訳(メタデータ) (2023-06-16T14:18:51Z) - PointAvatar: Deformable Point-based Head Avatars from Videos [103.43941945044294]
PointAvatarは変形可能な点ベースの表現で、原色を固有アルベドと正規依存シェーディングに分解する。
提案手法は,複数の音源からのモノクロビデオを用いて,アニマタブルな3Dアバターを生成することができることを示す。
論文 参考訳(メタデータ) (2022-12-16T10:05:31Z) - Explicit Clothing Modeling for an Animatable Full-Body Avatar [21.451440299450592]
マルチビューキャプチャービデオから上半身の衣服を明示的に表現したアニマタブルな布製のアバターを製作した。
身体力学と衣服状態の相互作用を学習するために、時間的畳み込みネットワークを用いて衣服潜伏コードの予測を行う。
3つの異なるアクターに対してフォトリアリスティックなアニメーションを出力し、単層アバターよりも布体アバターの利点を実演する。
論文 参考訳(メタデータ) (2021-06-28T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。