論文の概要: AvatarArtist: Open-Domain 4D Avatarization
- arxiv url: http://arxiv.org/abs/2503.19906v1
- Date: Tue, 25 Mar 2025 17:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:54:58.814853
- Title: AvatarArtist: Open-Domain 4D Avatarization
- Title(参考訳): AvatarArtist: オープンドメインの4Dアバター化
- Authors: Hongyu Liu, Xuan Wang, Ziyu Wan, Yue Ma, Jingye Chen, Yanbo Fan, Yujun Shen, Yibing Song, Qifeng Chen,
- Abstract要約: 本研究は、ポートレート画像から任意のスタイルで4Dアバターを作成することを目的として、オープンドメインの4Dアバター化に焦点を当てている。
本稿では,GAN(Generative Adversarial Network)と拡散モデルの両方を活用する実践的なトレーニングパラダイムを提案する。
我々のモデルであるAvatarArtistは、様々なソース画像領域に対して強い堅牢性を持つ高品質な4Dアバターを製造することができる。
- 参考スコア(独自算出の注目度): 95.63675560402274
- License:
- Abstract: This work focuses on open-domain 4D avatarization, with the purpose of creating a 4D avatar from a portrait image in an arbitrary style. We select parametric triplanes as the intermediate 4D representation and propose a practical training paradigm that takes advantage of both generative adversarial networks (GANs) and diffusion models. Our design stems from the observation that 4D GANs excel at bridging images and triplanes without supervision yet usually face challenges in handling diverse data distributions. A robust 2D diffusion prior emerges as the solution, assisting the GAN in transferring its expertise across various domains. The synergy between these experts permits the construction of a multi-domain image-triplane dataset, which drives the development of a general 4D avatar creator. Extensive experiments suggest that our model, AvatarArtist, is capable of producing high-quality 4D avatars with strong robustness to various source image domains. The code, the data, and the models will be made publicly available to facilitate future studies..
- Abstract(参考訳): 本研究は、ポートレート画像から任意のスタイルで4Dアバターを作成することを目的として、オープンドメインの4Dアバター化に焦点を当てている。
パラメトリック3次元平面を中間4次元表現として選択し,GAN(Generative Adversarial Network)と拡散モデルの両方を活用する実践的な訓練パラダイムを提案する。
我々の設計は、4D GANが画像や三葉飛行機を監督せずに設計し、多種多様なデータ配信を扱うという課題に直面しているという観察に起因している。
堅牢な2D拡散はソリューションとして登場し、GANがその専門知識を様々な領域に転移するのを手助けする。
これらの専門家の相乗効果により、一般的な4Dアバターの開発を促進するマルチドメインイメージトリプレーンデータセットの構築が可能になる。
我々のモデルであるAvatarArtistは、様々なソース画像領域に対して強い堅牢性を持つ高品質な4Dアバターを製造可能であることを、広範囲にわたる実験により示唆している。
コード、データ、モデルは、将来の研究を促進するために公開されます。
と。
関連論文リスト
- CAP4D: Creating Animatable 4D Portrait Avatars with Morphable Multi-View Diffusion Models [9.622857933809067]
CAP4Dは、様々な参照画像からフォトリアルな4Dポートレートアバターを再構成するために、変形可能な多視点拡散モデルを用いるアプローチである。
提案手法は, 単一像, 少数像, 複数像の4Dポートレートアバター再構成における最先端性能を示す。
論文 参考訳(メタデータ) (2024-12-16T18:58:51Z) - Human-3Diffusion: Realistic Avatar Creation via Explicit 3D Consistent Diffusion Models [29.73743772971411]
人間の3次元拡散: 明示的な3次元連続拡散による現実的なアバター創造を提案する。
我々の重要な洞察は、2次元多視点拡散と3次元再構成モデルが相互に補完情報を提供するということである。
提案するフレームワークは,最先端の手法より優れ,単一のRGB画像から現実的なアバターを作成することができる。
論文 参考訳(メタデータ) (2024-06-12T17:57:25Z) - Instant 3D Human Avatar Generation using Image Diffusion Models [37.45927867788691]
AvatarPopUpは、異なる入力モードから高速で高品質な3Dアバターを生成する方法である。
われわれのアプローチでは、わずか2秒で3Dモデルを生成することができる。
論文 参考訳(メタデータ) (2024-06-11T17:47:27Z) - Comp4D: LLM-Guided Compositional 4D Scene Generation [65.5810466788355]
合成 4D 生成のための新しいフレームワーク Comp4D について述べる。
シーン全体の特異な4D表現を生成する従来の方法とは異なり、Comp4Dはシーン内の各4Dオブジェクトを革新的に別々に構築する。
提案手法は, 予め定義された軌道で導かれる合成スコア蒸留技術を用いている。
論文 参考訳(メタデータ) (2024-03-25T17:55:52Z) - StyleAvatar3D: Leveraging Image-Text Diffusion Models for High-Fidelity
3D Avatar Generation [103.88928334431786]
高品質な3Dアバターを製作するための新しい手法を提案する。
データ生成には事前学習した画像テキスト拡散モデルとGANベースの3次元生成ネットワークを用いて訓練を行う。
提案手法は、生産されたアバターの視覚的品質と多様性の観点から、現在の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-30T13:09:21Z) - DreamAvatar: Text-and-Shape Guided 3D Human Avatar Generation via
Diffusion Models [55.71306021041785]
高品質な3Dアバターを作成するためのテキスト・アンド・シェイプ・ガイドフレームワークであるDreamAvatarについて紹介する。
SMPLモデルを利用して、生成のための形状とポーズのガイダンスを提供する。
また、全体とズームインした3Dヘッドから計算した損失を共同で最適化し、一般的なマルチフェイス「Janus」問題を緩和する。
論文 参考訳(メタデータ) (2023-04-03T12:11:51Z) - MVP-Human Dataset for 3D Human Avatar Reconstruction from Unconstrained
Frames [59.37430649840777]
野生(Arwild)における3次元アバター再構成を行い,まず暗黙のスキンフィールドを多段階的に再構成する。
大規模なデータセットであるMVP-Humanには400人の被験者が参加し、それぞれ異なるポーズで15のスキャンを行います。
全体として、特定のネットワークアーキテクチャと多様なデータにより、トレーニングされたモデルは、制約のないフレームから3Dアバターを再構築することができる。
論文 参考訳(メタデータ) (2022-04-24T03:57:59Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。