論文の概要: Modeling Caricature Expressions by 3D Blendshape and Dynamic Texture
- arxiv url: http://arxiv.org/abs/2008.05714v1
- Date: Thu, 13 Aug 2020 06:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:12:20.189852
- Title: Modeling Caricature Expressions by 3D Blendshape and Dynamic Texture
- Title(参考訳): 3次元ブレンドシェープと動的テクスチャによる画像表現のモデル化
- Authors: Keyu Chen, Jianmin Zheng, Jianfei Cai, Juyong Zhang
- Abstract要約: 本稿では,アーティストが描いた似顔絵を正規表現に従って変形させる問題に対する解法を提案する。
本ソリューションの鍵となるのは,従来の3DMM表現をキャラクチュア領域に拡張した,キャラクチュア表現をモデル化する新しい手法である。
提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 58.78290175562601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of deforming an artist-drawn caricature according to a given
normal face expression is of interest in applications such as social media,
animation and entertainment. This paper presents a solution to the problem,
with an emphasis on enhancing the ability to create desired expressions and
meanwhile preserve the identity exaggeration style of the caricature, which
imposes challenges due to the complicated nature of caricatures. The key of our
solution is a novel method to model caricature expression, which extends
traditional 3DMM representation to caricature domain. The method consists of
shape modelling and texture generation for caricatures. Geometric optimization
is developed to create identity-preserving blendshapes for reconstructing
accurate and stable geometric shape, and a conditional generative adversarial
network (cGAN) is designed for generating dynamic textures under target
expressions. The combination of both shape and texture components makes the
non-trivial expressions of a caricature be effectively defined by the extension
of the popular 3DMM representation and a caricature can thus be flexibly
deformed into arbitrary expressions with good results visually in both shape
and color spaces. The experiments demonstrate the effectiveness of the proposed
method.
- Abstract(参考訳): アーティストが描いた似顔絵を通常の表情で変形させる問題は、ソーシャルメディア、アニメーション、エンターテイメントなどの応用に関心がある。
本稿では,この課題に対する解決策として,所望の表現の創造能力の向上と,その一方で,似顔絵のアイデンティティ誇張スタイルを保ちながら,似顔絵の複雑な性質から課題を課す。
本ソリューションの鍵となるのは,従来の3DMM表現をキャラクチュア領域に拡張した,キャラクチュア表現をモデル化する新しい手法である。
本手法は, キャラクチュアの形状モデリングとテクスチャ生成から成り立っている。
幾何的最適化は, 高精度で安定な幾何形状を再構成するためのアイデンティティ保存ブレンドスファップを作成するために開発され, ターゲット表現下で動的テクスチャを生成するための条件生成逆ネットワーク(cGAN)が設計されている。
形状成分とテクスチャ成分の組み合わせにより、一般的な3DMM表現の拡張により、似顔絵の非自明な表現を効果的に定義でき、これにより、図形空間と色空間の両方において、良好な結果の任意の表現に柔軟に変形することができる。
提案手法の有効性を示す実験を行った。
関連論文リスト
- High-Quality Face Caricature via Style Translation [1.3457834965263997]
実世界での使用に適した,高品質で不対面の顔似似顔絵法を提案する。
顔の特徴の誇張と外観のスタイル化を2段階のプロセスで達成する。
Faceキャラクチュアプロジェクションは、実面と似顔で訓練されたエンコーダと、事前訓練されたジェネレータを用いて、実面と似顔を投影する。
論文 参考訳(メタデータ) (2023-11-22T12:03:33Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - Generating Animatable 3D Cartoon Faces from Single Portraits [51.15618892675337]
1枚のポートレート画像からアニマタブルな3Dマンガの顔を生成するための新しい枠組みを提案する。
本研究では,3次元マンガの顔のテクスチャを再現する2段階再構築手法を提案する。
最後に,手作業によるテンプレート作成と変形伝達に基づく意味保存顔リギング手法を提案する。
論文 参考訳(メタデータ) (2023-07-04T04:12:50Z) - Neural Strokes: Stylized Line Drawing of 3D Shapes [36.88356061690497]
本稿では3次元形状からスタイリングされた線図を作成するモデルを提案する。
モデルは3次元形状と視点を入力として取り、テクスチャ化されたストロークで描画を出力する。
論文 参考訳(メタデータ) (2021-10-08T05:40:57Z) - Learning to Caricature via Semantic Shape Transform [95.25116681761142]
本稿では,意味的形状変換に基づくアルゴリズムを提案する。
提案手法は,顔の構造を維持しつつ,視覚的に心地よい形状の誇張を表現できることを示す。
論文 参考訳(メタデータ) (2020-08-12T03:41:49Z) - Landmark Detection and 3D Face Reconstruction for Caricature using a
Nonlinear Parametric Model [27.553158595012974]
画像の自動ランドマーク検出と3次元顔再構成のための最初の自動手法を提案する。
構築されたデータセットと非線形パラメトリックモデルに基づいて,入力された2次元似顔画像から3次元顔形状と向きを回帰するニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2020-04-20T10:34:52Z) - 3D-CariGAN: An End-to-End Solution to 3D Caricature Generation from Face
Photos [78.14395302760148]
本稿では,通常の2次元顔画像から直接高品質な3D画像を生成するエンド・ツー・エンドのディープ・ニューラルネットワークモデルを提案する。
新たな2段階のユーザスタディを含む実験により,通常の顔写真から直接高品質な3D画像を生成することができることがわかった。
論文 参考訳(メタデータ) (2020-03-15T14:42:15Z) - MW-GAN: Multi-Warping GAN for Caricature Generation with Multi-Style
Geometric Exaggeration [53.98437317161086]
入力顔写真が与えられた場合、キャラクチュア生成の目標は、写真と同じアイデンティティを共有するスタイリングされた、誇張されたキャラクチュアを作ることである。
本稿では,MW-GAN(Multi-Warping GAN)と呼ばれる,スタイルネットワークと幾何学的ネットワークを含む新しいフレームワークを提案する。
実験により, MW-GANが生成する似顔絵は, 既存の方法よりも優れた品質を示すことが示された。
論文 参考訳(メタデータ) (2020-01-07T03:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。