論文の概要: CariMe: Unpaired Caricature Generation with Multiple Exaggerations
- arxiv url: http://arxiv.org/abs/2010.00246v1
- Date: Thu, 1 Oct 2020 08:14:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 07:52:52.591894
- Title: CariMe: Unpaired Caricature Generation with Multiple Exaggerations
- Title(参考訳): CariMe: 複数の誇張機能を備えた未ペア画像生成
- Authors: Zheng Gu, Chuanqi Dong, Jing Huo, Wenbin Li, Yang Gao
- Abstract要約: キャラクチュア生成は、実際の写真を芸術的なスタイルと形状の誇張を備えたキャラクチュアに翻訳することを目的としている。
所定の写真から一定の画像の歪みを予測し、先行の似顔絵生成手法を強要する。
本稿では,画像から顔への分布レベルのマッピングを学習するためのマルチ・オーバーグラデーション・ワーパネットワークを提案する。
- 参考スコア(独自算出の注目度): 22.342630945133312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Caricature generation aims to translate real photos into caricatures with
artistic styles and shape exaggerations while maintaining the identity of the
subject. Different from the generic image-to-image translation, drawing a
caricature automatically is a more challenging task due to the existence of
various spacial deformations. Previous caricature generation methods are
obsessed with predicting definite image warping from a given photo while
ignoring the intrinsic representation and distribution for exaggerations in
caricatures. This limits their ability on diverse exaggeration generation. In
this paper, we generalize the caricature generation problem from instance-level
warping prediction to distribution-level deformation modeling. Based on this
assumption, we present the first exploration for unpaired CARIcature generation
with Multiple Exaggerations (CariMe). Technically, we propose a
Multi-exaggeration Warper network to learn the distribution-level mapping from
photo to facial exaggerations. This makes it possible to generate diverse and
reasonable exaggerations from randomly sampled warp codes given one input
photo. To better represent the facial exaggeration and produce fine-grained
warping, a deformation-field-based warping method is also proposed, which helps
us to capture more detailed exaggerations than other point-based warping
methods. Experiments and two perceptual studies prove the superiority of our
method comparing with other state-of-the-art methods, showing the improvement
of our work on caricature generation.
- Abstract(参考訳): 似顔絵生成は、被写体のアイデンティティを維持しつつ、実際の写真を芸術的スタイルや形誇張のある似顔絵に翻訳することを目的としている。
一般的な画像から画像への変換とは異なり、画像の自動描画は、様々な空間的変形が存在するため、より困難な作業である。
従来の似顔絵生成方法は、顔絵における誇張の固有表現や分布を無視しながら、所定の写真から一定の画像の逸脱を予測することに集中する。
これにより、様々な誇張生成の能力が制限される。
本稿では,インスタンスレベルの変形予測から分布レベルの変形モデリングまで,画像生成問題を一般化する。
この仮定に基づいて,多重誇張(CariMe)を用いた未ペアCARIcature生成の探索を行った。
技術的には、写真から顔への分布レベルのマッピングを学習するマルチオーバーホールドワーパーネットワークを提案する。
これにより、1枚の入力写真がランダムにサンプリングされたワープ符号から多種多様な合理的な誇張を生成することができる。
顔の誇張をより良く表現し, きめ細かなワープを生成するために, 変形場に基づくワープ法も提案されている。
実験と2つの知覚研究により,他の最先端手法と比較して,本手法の優越性が証明された。
関連論文リスト
- Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - High-Quality Face Caricature via Style Translation [1.3457834965263997]
実世界での使用に適した,高品質で不対面の顔似似顔絵法を提案する。
顔の特徴の誇張と外観のスタイル化を2段階のプロセスで達成する。
Faceキャラクチュアプロジェクションは、実面と似顔で訓練されたエンコーダと、事前訓練されたジェネレータを用いて、実面と似顔を投影する。
論文 参考訳(メタデータ) (2023-11-22T12:03:33Z) - Quality Metric Guided Portrait Line Drawing Generation from Unpaired
Training Data [88.78171717494688]
本研究では,顔画像から肖像画への自動変換手法を提案する。
本手法は,(1)1つのネットワークを用いて複数のスタイルで高品質な肖像画を生成することを学習し,(2)トレーニングデータに見つからない「新しいスタイル」の肖像画を生成する。
論文 参考訳(メタデータ) (2022-02-08T06:49:57Z) - Unsupervised Contrastive Photo-to-Caricature Translation based on
Auto-distortion [49.93278173824292]
Photo-to-caricatureは、スケッチ、鉛筆のストローク、その他の芸術的図面を通じて特徴を誇張するレンダリング画像として、似顔絵を合成することを目的としている。
スタイルレンダリングと幾何学的変形は、フォト・ツー・キャリキュア・トランスフォーメーション・タスクにおいて最も重要な側面である。
教師なしのコントラスト変換アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-10T08:14:36Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Learning to Caricature via Semantic Shape Transform [95.25116681761142]
本稿では,意味的形状変換に基づくアルゴリズムを提案する。
提案手法は,顔の構造を維持しつつ,視覚的に心地よい形状の誇張を表現できることを示す。
論文 参考訳(メタデータ) (2020-08-12T03:41:49Z) - AutoToon: Automatic Geometric Warping for Face Cartoon Generation [0.0]
本稿では,画像のワープ成分に高品質なワープを付与する,最初の教師付き深層学習手法であるAutoToonを提案する。
先行技術とは対照的に、SENetと空間トランスフォーマーモジュールを活用し、アーティストのワープフィールドを直接訓練する。
顔の細部を保ちながら顔の特徴の識別を増幅する魅力ある誇張を実現する。
論文 参考訳(メタデータ) (2020-04-06T02:27:51Z) - MW-GAN: Multi-Warping GAN for Caricature Generation with Multi-Style
Geometric Exaggeration [53.98437317161086]
入力顔写真が与えられた場合、キャラクチュア生成の目標は、写真と同じアイデンティティを共有するスタイリングされた、誇張されたキャラクチュアを作ることである。
本稿では,MW-GAN(Multi-Warping GAN)と呼ばれる,スタイルネットワークと幾何学的ネットワークを含む新しいフレームワークを提案する。
実験により, MW-GANが生成する似顔絵は, 既存の方法よりも優れた品質を示すことが示された。
論文 参考訳(メタデータ) (2020-01-07T03:08:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。