論文の概要: DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars
- arxiv url: http://arxiv.org/abs/2203.15798v1
- Date: Tue, 29 Mar 2022 17:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 17:02:51.854001
- Title: DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars
- Title(参考訳): DRaCoN-Articulated Avatar用ラスタ化条件ニューラル放射場
- Authors: Amit Raj, Umar Iqbal, Koki Nagano, Sameh Khamis, Pavlo Molchanov,
James Hays, Jan Kautz
- Abstract要約: フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
- 参考スコア(独自算出の注目度): 92.37436369781692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Acquisition and creation of digital human avatars is an important problem
with applications to virtual telepresence, gaming, and human modeling. Most
contemporary approaches for avatar generation can be viewed either as 3D-based
methods, which use multi-view data to learn a 3D representation with appearance
(such as a mesh, implicit surface, or volume), or 2D-based methods which learn
photo-realistic renderings of avatars but lack accurate 3D representations. In
this work, we present, DRaCoN, a framework for learning full-body volumetric
avatars which exploits the advantages of both the 2D and 3D neural rendering
techniques. It consists of a Differentiable Rasterization module, DiffRas, that
synthesizes a low-resolution version of the target image along with additional
latent features guided by a parametric body model. The output of DiffRas is
then used as conditioning to our conditional neural 3D representation module
(c-NeRF) which generates the final high-res image along with body geometry
using volumetric rendering. While DiffRas helps in obtaining photo-realistic
image quality, c-NeRF, which employs signed distance fields (SDF) for 3D
representations, helps to obtain fine 3D geometric details. Experiments on the
challenging ZJU-MoCap and Human3.6M datasets indicate that DRaCoN outperforms
state-of-the-art methods both in terms of error metrics and visual quality.
- Abstract(参考訳): デジタル人間のアバターの獲得と作成は、仮想テレプレゼンス、ゲーム、人間モデリングへの応用において重要な問題である。
現代のアバター生成のアプローチのほとんどは、マルチビューデータを用いて外観(メッシュ、暗黙の面、ボリュームなど)で3D表現を学習する3Dベースの手法や、アバターのフォトリアリスティックレンダリングを学習するが正確な3D表現を欠く2Dベースの手法と見ることができる。
本稿では,2次元および3次元のニューラルレンダリング技術の利点を生かしたフルボディボリュームアバターを学習するためのフレームワークであるdraconについて述べる。
それは微分可能なラスタライゼーションモジュールDiffRasで構成されており、ターゲット画像の低解像度バージョンを合成し、パラメトリックボディモデルによってガイドされる追加の潜伏特徴を合成する。
次に、DiffRasの出力を条件付き3D表現モジュール(c-NeRF)の条件付けとして使用し、ボリュームレンダリングを用いて最終高解像度画像を生成する。
DiffRasは3D表現に符号付き距離場(SDF)を用いるc-NeRFは、3Dの幾何学的詳細を得るのに役立ちます。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNがエラーメトリクスと視覚的品質の両方で最先端の手法より優れていることを示している。
関連論文リスト
- DiffHuman: Probabilistic Photorealistic 3D Reconstruction of Humans [38.8751809679184]
DiffHumanは1枚のRGB画像から3次元人物再構成を行う確率的手法である。
我々の実験は、DiffHumanが入力画像に見えない、あるいは不確実な人物のために、多種多様な詳細な再構成を作成できることを示している。
論文 参考訳(メタデータ) (2024-03-30T22:28:29Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - Articulated 3D Head Avatar Generation using Text-to-Image Diffusion
Models [107.84324544272481]
多様な頭部アバターを合成する能力は、拡張現実、撮影、教育など、多くの応用に不可欠である。
テキスト誘導型3Dオブジェクト生成に関する最近の研究は、これらのニーズに対処する上で大きな可能性を秘めている。
拡散に基づく頭部アバターは,この課題に対する最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-10T19:15:32Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - Learning Personalized High Quality Volumetric Head Avatars from
Monocular RGB Videos [47.94545609011594]
本研究では,野生で撮影されたモノクロRGBビデオから高品質な3次元頭部アバターを学習する方法を提案する。
我々のハイブリッドパイプラインは、3DMMの幾何学的先行と動的追跡とニューラルラディアンス場を組み合わせることで、きめ細かい制御とフォトリアリズムを実現する。
論文 参考訳(メタデータ) (2023-04-04T01:10:04Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。