論文の概要: PAniC-3D: Stylized Single-view 3D Reconstruction from Portraits of Anime
Characters
- arxiv url: http://arxiv.org/abs/2303.14587v1
- Date: Sat, 25 Mar 2023 23:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:45:52.354522
- Title: PAniC-3D: Stylized Single-view 3D Reconstruction from Portraits of Anime
Characters
- Title(参考訳): パニック3d:アニメキャラクターの肖像からのスタイリズド・シングルビュー3次元再構成
- Authors: Shuhong Chen, Kevin Zhang, Yichun Shi, Heng Wang, Yiheng Zhu, Guoxian
Song, Sizhe An, Janus Kristjansson, Xiao Yang, Matthias Zwicker
- Abstract要約: 提案するPAniC-3Dは, (ani)me (c)haractersの図形(p)ortraitsから直接スタイリングされた3D文字を再構成するシステムである。
- 参考スコア(独自算出の注目度): 29.107457721261387
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose PAniC-3D, a system to reconstruct stylized 3D character heads
directly from illustrated (p)ortraits of (ani)me (c)haracters. Our anime-style
domain poses unique challenges to single-view reconstruction; compared to
natural images of human heads, character portrait illustrations have hair and
accessories with more complex and diverse geometry, and are shaded with
non-photorealistic contour lines. In addition, there is a lack of both 3D model
and portrait illustration data suitable to train and evaluate this ambiguous
stylized reconstruction task. Facing these challenges, our proposed PAniC-3D
architecture crosses the illustration-to-3D domain gap with a line-filling
model, and represents sophisticated geometries with a volumetric radiance
field. We train our system with two large new datasets (11.2k Vroid 3D models,
1k Vtuber portrait illustrations), and evaluate on a novel AnimeRecon benchmark
of illustration-to-3D pairs. PAniC-3D significantly outperforms baseline
methods, and provides data to establish the task of stylized reconstruction
from portrait illustrations.
- Abstract(参考訳): 提案するPAniC-3Dは, (ani)me (c)haractersの図形(p)ortraitsから直接スタイリングされた3D文字を再構成するシステムである。
私たちのアニメスタイルのドメインは、人間の頭部の自然なイメージと比較して、より複雑で多様な幾何学を持つ毛髪やアクセサリーを持ち、非フォトリアリスティックな輪郭線で日陰になっている。
また,この曖昧なスタイリッシュな再構築課題を訓練し,評価するのに適した3dモデルとポートレート・イラストレーションデータが欠落している。
これらの課題に直面する中で,提案したPAniC-3Dアーキテクチャは,線充填モデルを用いて図形と3次元の領域ギャップを越え,体積放射場を持つ洗練されたジオメトリを表現する。
我々は2つの大きなデータセット(11.2k Vroid 3Dモデル、1k Vtuberポートレートイラスト)をトレーニングし、イラストから3Dまでの新しいAnimeReconベンチマークで評価する。
PAniC-3Dはベースライン法を大幅に上回り、ポートレートイラストからスタイル化された再構築作業を確立するためのデータを提供する。
関連論文リスト
- Generating Animatable 3D Cartoon Faces from Single Portraits [51.15618892675337]
1枚のポートレート画像からアニマタブルな3Dマンガの顔を生成するための新しい枠組みを提案する。
本研究では,3次元マンガの顔のテクスチャを再現する2段階再構築手法を提案する。
最後に,手作業によるテンプレート作成と変形伝達に基づく意味保存顔リギング手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T04:12:50Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - AgileGAN3D: Few-Shot 3D Portrait Stylization by Augmented Transfer
Learning [80.67196184480754]
本稿では,3次元芸術的に魅力的な肖像画を詳細な幾何学で作成できる新しいフレームワークであるemphAgileGAN3Dを提案する。
新しいスタイリゼーションは、わずか (約20) の未完成の2D例で得られる。
われわれのパイプラインは、ユーザの写真を多様な3Dアートのポートレートに変える強力な能力を示している。
論文 参考訳(メタデータ) (2023-03-24T23:04:20Z) - Make Your Brief Stroke Real and Stereoscopic: 3D-Aware Simplified Sketch
to Portrait Generation [51.64832538714455]
既存の研究は2次元平面の像のみを固定ビューで生成し、その結果を鮮明にしない。
本稿では立体視による簡易スケッチ・トゥ・ポートレート(SSSP)について述べる。
我々の重要な洞察は、三面体ベースの3D認識生成モデルの事前知識を十分に活用できるスケッチ認識制約を設計することである。
論文 参考訳(メタデータ) (2023-02-14T06:28:42Z) - Structured 3D Features for Reconstructing Controllable Avatars [43.36074729431982]
パラメトリックな統計的メッシュ表面からサンプリングされた高密度な3次元点に画素整列画像特徴をプールする,新しい暗黙の3次元表現に基づくモデルであるStructured 3D Featuresを紹介する。
本研究では,S3Fモデルがモノクロ3D再構成やアルベド,シェーディング推定など,これまでの課題を超越していることを示す。
論文 参考訳(メタデータ) (2022-12-13T18:57:33Z) - Dr.3D: Adapting 3D GANs to Artistic Drawings [18.02433252623283]
Dr.3Dは、既存の3D GANを芸術的図面に適応させる新しい適応アプローチである。
Dr.3Dは、幾何学的曖昧性を扱うための3つの新しいコンポーネントを備えている: 変形対応の3D合成ネットワーク、ポーズ推定と画像合成の交互適応、および幾何学的先行である。
論文 参考訳(メタデータ) (2022-11-30T07:30:43Z) - DRaCoN -- Differentiable Rasterization Conditioned Neural Radiance
Fields for Articulated Avatars [92.37436369781692]
フルボディの体積アバターを学習するためのフレームワークであるDRaCoNを提案する。
2Dと3Dのニューラルレンダリング技術の利点を利用する。
挑戦的なZJU-MoCapとHuman3.6Mデータセットの実験は、DRaCoNが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-03-29T17:59:15Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - 3DCaricShop: A Dataset and A Baseline Method for Single-view 3D
Caricature Face Reconstruction [23.539931080533226]
3DCaricShopは、プロのアーティストが手作業で作った2000の高品質な3Dキャラクチュアを含む、最初の大規模な3Dキャラクチュアデータセットである。
3DCaricShopはまた、ペアの2Dマニキュア画像、カメラパラメータ、3D顔のランドマークを含む豊富なアノテーションを提供します。
本稿では,暗黙のメッシュからキーポイントを抽出して正確なアライメントを行う新しいビューコラボレーティブグラフ畳み込みネットワーク(vcgcn)を提案する。
論文 参考訳(メタデータ) (2021-03-15T08:24:29Z) - 3D Shape Reconstruction from Free-Hand Sketches [42.15888734492648]
歪みのない線図からの3次元再構成では大きな進歩があったが、フリーハンドスケッチから3次元形状を再構築する努力はほとんど行われていない。
インタラクティブデザインやVR/ARゲームといった3D関連アプリケーションにおけるスケッチのパワー向上を目指す。
フリーハンドスケッチ3D再構成の大きな課題は、トレーニングデータ不足とフリーハンドスケッチの多様性にある。
論文 参考訳(メタデータ) (2020-06-17T07:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。