論文の概要: Disco4D: Disentangled 4D Human Generation and Animation from a Single Image
- arxiv url: http://arxiv.org/abs/2409.17280v1
- Date: Wed, 25 Sep 2024 18:46:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-30 12:41:44.131844
- Title: Disco4D: Disentangled 4D Human Generation and Animation from a Single Image
- Title(参考訳): Disco4D:1枚の画像から4Dの人間生成とアニメーションを分離
- Authors: Hui En Pang, Shuai Liu, Zhongang Cai, Lei Yang, Tianwei Zhang, Ziwei Liu,
- Abstract要約: textbfD4Dは、単一の画像から4Dの人間生成とアニメーションのための新しいフレームワークである。
服を人体から遠ざける(SMPL-Xモデル)
鮮明なダイナミックスを備えた4Dアニメーションをサポートする。
- 参考スコア(独自算出の注目度): 49.188657545633475
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present \textbf{Disco4D}, a novel Gaussian Splatting framework for 4D human generation and animation from a single image. Different from existing methods, Disco4D distinctively disentangles clothings (with Gaussian models) from the human body (with SMPL-X model), significantly enhancing the generation details and flexibility. It has the following technical innovations. \textbf{1)} Disco4D learns to efficiently fit the clothing Gaussians over the SMPL-X Gaussians. \textbf{2)} It adopts diffusion models to enhance the 3D generation process, \textit{e.g.}, modeling occluded parts not visible in the input image. \textbf{3)} It learns an identity encoding for each clothing Gaussian to facilitate the separation and extraction of clothing assets. Furthermore, Disco4D naturally supports 4D human animation with vivid dynamics. Extensive experiments demonstrate the superiority of Disco4D on 4D human generation and animation tasks. Our visualizations can be found in \url{https://disco-4d.github.io/}.
- Abstract(参考訳): 一つの画像から4次元の人間生成とアニメーションのための新しいガウス・スティングフレームワークである \textbf{Disco4D} を提示する。
既存の方法とは異なり、Disco4Dは衣服(ガウスモデル)と人体(SMPL-Xモデル)を区別的に分離し、生成の詳細と柔軟性を大幅に向上させた。
技術的革新は以下の通りである。
Disco4D は SMPL-X Gaussian の服に効率的に適合する。
図2. \textbf{2} 拡散モデルを採用し、3D生成プロセスである \textit{e g } を拡張し、入力画像に見えない隠蔽された部分をモデル化する。
衣服の資産の分離と抽出を容易にするために、衣服ごとのアイデンティティエンコーディングを学ぶ。
さらに、Disco4Dは鮮明なダイナミックスを備えた4D人間アニメーションを自然にサポートする。
大規模な実験は、4次元の人間生成とアニメーションタスクにおけるDisco4Dの優位性を実証している。
視覚化は \url{https://disco-4d.github.io/} で確認できます。
関連論文リスト
- 4-LEGS: 4D Language Embedded Gaussian Splatting [12.699978393733309]
3次元ガウシアンティングに基づく4次元表現に時間的特徴を持ち上げる方法を示す。
これにより、ユーザはテキストプロンプトからビデオ内のイベントを時間的にローカライズすることができる。
我々は,人や動物が様々な行動を行う様子を公開3Dビデオデータセットで実演する。
論文 参考訳(メタデータ) (2024-10-14T17:00:53Z) - GST: Precise 3D Human Body from a Single Image with Gaussian Splatting Transformers [23.96688843662126]
我々は,ガウスの混合体からなるシーン表現である3Dガウススプレイティング(3DGS)をベースとした。
この組み合わせは、テスト時間最適化なしで単一の画像から3次元人間のモデルを高速に推定できることを示す。
また,衣服などのバリエーションを考慮に入れた人体モデルにより,3次元ポーズ推定の改善が期待できることを示す。
論文 参考訳(メタデータ) (2024-09-06T11:34:24Z) - iHuman: Instant Animatable Digital Humans From Monocular Videos [16.98924995658091]
モノクロビデオからアニマタブルな3Dデジタル人間を作るための,迅速かつシンプルで効果的な方法を提案する。
この研究は、人間の身体の正確な3Dメッシュ型モデリングの必要性を達成し、説明します。
我々の手法は(訓練時間の観点から)最も近い競合相手よりも桁違いに高速である。
論文 参考訳(メタデータ) (2024-07-15T18:51:51Z) - Segment Any 4D Gaussians [69.53172192552508]
我々は,4次元ガウスアン(SA4D)をベースとした4次元デジタル世界において,任意の4次元ガウスアン(SA4D)をセグメンテーションすることを提案する。
SA4Dは4Dガウスで数秒以内の精度で高品質なセグメンテーションを実現し、高品質なマスクを取り除き、色を変え、構成し、レンダリングする能力を示している。
論文 参考訳(メタデータ) (2024-07-05T13:44:15Z) - UV Gaussians: Joint Learning of Mesh Deformation and Gaussian Textures for Human Avatar Modeling [71.87807614875497]
メッシュ変形と2次元UV空間のガウステクスチャを共同学習することで3次元人体をモデル化するUVガウスアンを提案する。
我々は,多視点画像,走査モデル,パラメトリックモデル登録,およびそれに対応するテクスチャマップを含む,人間の動作の新たなデータセットを収集し,処理する。
論文 参考訳(メタデータ) (2024-03-18T09:03:56Z) - DreamGaussian4D: Generative 4D Gaussian Splatting [56.49043443452339]
DG4D(DreamGaussian 4D:DreamGaussian 4D)はGaussian Splatting(GS)をベースとした効率的な4D生成フレームワークである。
我々の重要な洞察は、空間変換の明示的なモデリングと静的GSを組み合わせることで、4次元生成の効率的かつ強力な表現ができるということである。
ビデオ生成手法は、高画質の4D生成を向上し、価値ある時空間前兆を提供する可能性がある。
論文 参考訳(メタデータ) (2023-12-28T17:16:44Z) - Align Your Gaussians: Text-to-4D with Dynamic 3D Gaussians and Composed
Diffusion Models [94.07744207257653]
我々は、探索されていないテキストから4D設定に焦点をあて、動的にアニメーションされた3Dオブジェクトを合成する。
4次元オブジェクト最適化において,テキスト・ツー・イメージ,テキスト・ツー・ビデオ,および3次元認識型多視点拡散モデルを組み合わせてフィードバックを提供する。
論文 参考訳(メタデータ) (2023-12-21T11:41:02Z) - 3D-Aware Semantic-Guided Generative Model for Human Synthesis [67.86621343494998]
本稿では,人間の画像合成のための3D-SGAN(Semantic-Guided Generative Model)を提案する。
DeepFashionデータセットに関する我々の実験は、3D-SGANが最新のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-02T17:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。