論文の概要: 3DCaricShop: A Dataset and A Baseline Method for Single-view 3D
Caricature Face Reconstruction
- arxiv url: http://arxiv.org/abs/2103.08204v1
- Date: Mon, 15 Mar 2021 08:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 14:07:28.454849
- Title: 3DCaricShop: A Dataset and A Baseline Method for Single-view 3D
Caricature Face Reconstruction
- Title(参考訳): 3DCaricShop:シングルビュー3次元顔再構成のためのデータセットとベースライン法
- Authors: Yuda Qiu, Xiaojie Xu, Lingteng Qiu, Yan Pan, Yushuang Wu, Weikai Chen,
Xiaoguang Han
- Abstract要約: 3DCaricShopは、プロのアーティストが手作業で作った2000の高品質な3Dキャラクチュアを含む、最初の大規模な3Dキャラクチュアデータセットである。
3DCaricShopはまた、ペアの2Dマニキュア画像、カメラパラメータ、3D顔のランドマークを含む豊富なアノテーションを提供します。
本稿では,暗黙のメッシュからキーポイントを抽出して正確なアライメントを行う新しいビューコラボレーティブグラフ畳み込みネットワーク(vcgcn)を提案する。
- 参考スコア(独自算出の注目度): 23.539931080533226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Caricature is an artistic representation that deliberately exaggerates the
distinctive features of a human face to convey humor or sarcasm. However,
reconstructing a 3D caricature from a 2D caricature image remains a challenging
task, mostly due to the lack of data. We propose to fill this gap by
introducing 3DCaricShop, the first large-scale 3D caricature dataset that
contains 2000 high-quality diversified 3D caricatures manually crafted by
professional artists. 3DCaricShop also provides rich annotations including a
paired 2D caricature image, camera parameters and 3D facial landmarks. To
demonstrate the advantage of 3DCaricShop, we present a novel baseline approach
for single-view 3D caricature reconstruction. To ensure a faithful
reconstruction with plausible face deformations, we propose to connect the good
ends of the detailrich implicit functions and the parametric mesh
representations. In particular, we first register a template mesh to the output
of the implicit generator and iteratively project the registration result onto
a pre-trained PCA space to resolve artifacts and self-intersections. To deal
with the large deformation during non-rigid registration, we propose a novel
view-collaborative graph convolution network (VCGCN) to extract key points from
the implicit mesh for accurate alignment. Our method is able to generate
highfidelity 3D caricature in a pre-defined mesh topology that is
animation-ready. Extensive experiments have been conducted on 3DCaricShop to
verify the significance of the database and the effectiveness of the proposed
method.
- Abstract(参考訳): Caricatureは、意図的に人間の顔の特徴を誇張してユーモアやサーカスムを伝える芸術的表現です。
しかし、2D画像から3D画像の再構成は、主にデータ不足のため、依然として困難な課題である。
3DCaricShopは,プロのアーティストが手作業で作成する2000種類の高品質な3Dキャラクチュアを含む,最初の大規模3Dキャラクチュアデータセットである。
3DCaricShopはまた、ペアの2Dマニキュア画像、カメラパラメータ、3D顔のランドマークを含む豊富なアノテーションを提供します。
3dcaricshopの利点を示すために,single-view 3d caricature reconstructionのための新しいベースラインアプローチを提案する。
顔の変形が妥当な忠実な再構築を実現するために,詳細な暗黙関数とパラメトリックメッシュ表現のよい端をつなぐことを提案する。
特に,まず暗黙発生器の出力にテンプレートメッシュを登録し,事前学習したPCA空間に登録結果を反復的に投影し,人工物や自己切断を解消する。
非リギッド登録時の大きな変形に対処するために,暗黙のメッシュからキーポイントを抽出して正確なアライメントを行う新しいビューコラボレーティブグラフ畳み込みネットワーク(vcgcn)を提案する。
本手法は,アニメーション対応のメッシュトポロジで高忠実度3D画像を生成することができる。
データベースの意義と提案手法の有効性を検証するため, 3DCaricShopで大規模な実験を行った。
関連論文リスト
- FAMOUS: High-Fidelity Monocular 3D Human Digitization Using View Synthesis [51.193297565630886]
テクスチャを正確に推測することの難しさは、特に正面視画像の人物の背中のような不明瞭な領域に残る。
このテクスチャ予測の制限は、大規模で多様な3Dデータセットの不足に起因する。
本稿では,3次元デジタル化におけるテクスチャと形状予測の両立を図るために,広範囲な2次元ファッションデータセットを活用することを提案する。
論文 参考訳(メタデータ) (2024-10-13T01:25:05Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - LAM3D: Large Image-Point-Cloud Alignment Model for 3D Reconstruction from Single Image [64.94932577552458]
大規模再構成モデルは、単一または複数入力画像から自動3Dコンテンツ生成の領域において大きな進歩を遂げている。
彼らの成功にもかかわらず、これらのモデルはしばしば幾何学的不正確な3Dメッシュを生成し、画像データからのみ3D形状を推論する固有の課題から生まれた。
生成した3Dメッシュの忠実度を高めるために3Dポイントクラウドデータを利用する新しいフレームワークであるLarge Image and Point Cloud Alignment Model (LAM3D)を導入する。
論文 参考訳(メタデータ) (2024-05-24T15:09:12Z) - Sketch3D: Style-Consistent Guidance for Sketch-to-3D Generation [55.73399465968594]
本稿では,テキスト記述と一致する色と入力スケッチに整合した形状のリアルな3Dアセットを生成するための,新しい生成パラダイムSketch3Dを提案する。
3つの戦略は、3次元ガウスの最適化、すなわち分布伝達機構による構造最適化、直感的なMSE損失による色最適化、CLIPに基づく幾何学的類似性損失によるスケッチ類似性最適化である。
論文 参考訳(メタデータ) (2024-04-02T11:03:24Z) - Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - RaBit: Parametric Modeling of 3D Biped Cartoon Characters with a
Topological-consistent Dataset [19.494054103293116]
3DBiCarは3D2Dアニメキャラクタの最初の大規模データセットであり、RaBitは対応するパラメトリックモデルである。
RaBitはSMPLのような線形ブレンド形状モデルとStyleGANベースのニューラルUVテクスチャ生成器で構築されており、形状、ポーズ、テクスチャを同時に表現している。
シングルビュー再構成やスケッチベースモデリング,3Dアニメーションなど,さまざまなアプリケーションが実施されている。
論文 参考訳(メタデータ) (2023-03-22T13:46:15Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - Beyond 3DMM: Learning to Capture High-fidelity 3D Face Shape [77.95154911528365]
3Dモーフィブルモデル(3DMM)の適合性は、その強力な3D先行性のため、顔解析に広く有用である。
以前に再建された3次元顔は、微細な形状が失われるため、視差の低下に悩まされていた。
本論文は, パーソナライズされた形状が対応する人物と同一に見えるよう, パーソナライズされた形状を捉えるための完全な解を提案する。
論文 参考訳(メタデータ) (2022-04-09T03:46:18Z) - Landmark Detection and 3D Face Reconstruction for Caricature using a
Nonlinear Parametric Model [27.553158595012974]
画像の自動ランドマーク検出と3次元顔再構成のための最初の自動手法を提案する。
構築されたデータセットと非線形パラメトリックモデルに基づいて,入力された2次元似顔画像から3次元顔形状と向きを回帰するニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-04-20T10:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。