論文の概要: RaBit: Parametric Modeling of 3D Biped Cartoon Characters with a
Topological-consistent Dataset
- arxiv url: http://arxiv.org/abs/2303.12564v2
- Date: Fri, 24 Mar 2023 07:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 11:22:32.880635
- Title: RaBit: Parametric Modeling of 3D Biped Cartoon Characters with a
Topological-consistent Dataset
- Title(参考訳): RaBit: トポロジ一貫性データセットを用いた3次元二足歩行文字のパラメトリックモデリング
- Authors: Zhongjin Luo, Shengcai Cai, Jinguo Dong, Ruibo Ming, Liangdong Qiu,
Xiaohang Zhan, Xiaoguang Han
- Abstract要約: 3DBiCarは3D2Dアニメキャラクタの最初の大規模データセットであり、RaBitは対応するパラメトリックモデルである。
RaBitはSMPLのような線形ブレンド形状モデルとStyleGANベースのニューラルUVテクスチャ生成器で構築されており、形状、ポーズ、テクスチャを同時に表現している。
シングルビュー再構成やスケッチベースモデリング,3Dアニメーションなど,さまざまなアプリケーションが実施されている。
- 参考スコア(独自算出の注目度): 19.494054103293116
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Assisting people in efficiently producing visually plausible 3D characters
has always been a fundamental research topic in computer vision and computer
graphics. Recent learning-based approaches have achieved unprecedented accuracy
and efficiency in the area of 3D real human digitization. However, none of the
prior works focus on modeling 3D biped cartoon characters, which are also in
great demand in gaming and filming. In this paper, we introduce 3DBiCar, the
first large-scale dataset of 3D biped cartoon characters, and RaBit, the
corresponding parametric model. Our dataset contains 1,500 topologically
consistent high-quality 3D textured models which are manually crafted by
professional artists. Built upon the data, RaBit is thus designed with a
SMPL-like linear blend shape model and a StyleGAN-based neural UV-texture
generator, simultaneously expressing the shape, pose, and texture. To
demonstrate the practicality of 3DBiCar and RaBit, various applications are
conducted, including single-view reconstruction, sketch-based modeling, and 3D
cartoon animation. For the single-view reconstruction setting, we find a
straightforward global mapping from input images to the output UV-based texture
maps tends to lose detailed appearances of some local parts (e.g., nose, ears).
Thus, a part-sensitive texture reasoner is adopted to make all important local
areas perceived. Experiments further demonstrate the effectiveness of our
method both qualitatively and quantitatively. 3DBiCar and RaBit are available
at gaplab.cuhk.edu.cn/projects/RaBit.
- Abstract(参考訳): 視覚的に可視な3D文字を効率的に作成する支援は、コンピュータビジョンとコンピュータグラフィックスの基本的な研究課題である。
最近の学習に基づくアプローチは、3d現実の人間のデジタル化の領域において前例のない精度と効率を達成している。
しかし、以前の作品ではゲームや撮影にも大きな需要がある3Dバイペッドの漫画キャラクターのモデリングに焦点を当てていなかった。
本稿では,3D2Dアニメキャラクタの最初の大規模データセットである3DBiCarと,対応するパラメトリックモデルであるRaBitを紹介する。
私たちのデータセットには1500のトポロジ的に一貫性のある高品質な3Dテクスチャモデルが含まれています。
このデータに基づいて、RaBitはSMPLのような線形ブレンド形状モデルとStyleGANベースのニューラルUVテクスチャ生成器で設計され、形状、ポーズ、テクスチャを同時に表現する。
3DBiCarとRaBitの実用性を実証するため, シングルビュー再構成, スケッチベースモデリング, 3Dアニメーションアニメーションなど, 様々な応用が行われている。
単一視点の再構成設定では、入力画像から出力されたuvベースのテクスチャマップへの直接的なグローバルマッピングは、いくつかのローカル部分(例えば鼻、耳)の詳細な外観を失う傾向がある。
これにより、すべての重要な地域を知覚する部分感性テクスチャ推論器が採用される。
さらに,本手法の有効性を定量的および定量的に実証する実験を行った。
3DBiCarとRaBitは gaplab.cuhk.edu.cn/projects/RaBitで利用可能である。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - An Effective Loss Function for Generating 3D Models from Single 2D Image
without Rendering [0.0]
微分レンダリングは、シングルビュー3Dレコンストラクションに適用できる非常に成功した技術である。
電流は、ある3d再構成対象のレンダリング画像と、与えられたマッチング視点からの接地画像との間のピクセルによる損失を利用して、3d形状のパラメータを最適化する。
再構成された3次元点群の投影が地上真理物体のシルエットをどの程度覆うかを評価する新しい効果的な損失関数を提案する。
論文 参考訳(メタデータ) (2021-03-05T00:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。