論文の概要: StyleCariGAN: Caricature Generation via StyleGAN Feature Map Modulation
- arxiv url: http://arxiv.org/abs/2107.04331v1
- Date: Fri, 9 Jul 2021 09:49:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 13:39:58.204343
- Title: StyleCariGAN: Caricature Generation via StyleGAN Feature Map Modulation
- Title(参考訳): StyleCariGAN: StyleGAN特徴マップ変調による画像生成
- Authors: Wonjong Jang, Gwangjin Ju, Yucheol Jung, Jiaolong Yang, Xin Tong,
Seungyong Lee
- Abstract要約: StyleGAN を用いた形状とスタイルの操作に基づく似顔絵生成フレームワークを提案する。
StyleCariGANと呼ばれる私たちのフレームワークは、入力された写真からリアルで詳細な似顔絵を自動生成します。
- 参考スコア(独自算出の注目度): 20.14727435894964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a caricature generation framework based on shape and style
manipulation using StyleGAN. Our framework, dubbed StyleCariGAN, automatically
creates a realistic and detailed caricature from an input photo with optional
controls on shape exaggeration degree and color stylization type. The key
component of our method is shape exaggeration blocks that are used for
modulating coarse layer feature maps of StyleGAN to produce desirable
caricature shape exaggerations. We first build a layer-mixed StyleGAN for
photo-to-caricature style conversion by swapping fine layers of the StyleGAN
for photos to the corresponding layers of the StyleGAN trained to generate
caricatures. Given an input photo, the layer-mixed model produces detailed
color stylization for a caricature but without shape exaggerations. We then
append shape exaggeration blocks to the coarse layers of the layer-mixed model
and train the blocks to create shape exaggerations while preserving the
characteristic appearances of the input. Experimental results show that our
StyleCariGAN generates realistic and detailed caricatures compared to the
current state-of-the-art methods. We demonstrate StyleCariGAN also supports
other StyleGAN-based image manipulations, such as facial expression control.
- Abstract(参考訳): StyleGAN を用いた形状とスタイルの操作に基づく似顔絵生成フレームワークを提案する。
stylecariganと呼ばれるこのフレームワークは、入力写真からリアルで詳細な似顔絵を自動的に作成し、形状の誇張度とカラースタイライゼーションタイプを任意に制御する。
提案手法の鍵となる要素は,StyleGANの粗い層特徴写像を変調して,好適な図形強調を生成する形状強調ブロックである。
まず、写真用StyleGANの微細な層を、画像生成の訓練を受けたStyleGANの対応する層に置き換えることで、写真から画像への変換が可能なStyleGANを構築した。
入力写真が与えられた場合、層状混合モデルは似顔絵の詳細なカラースタイリングを生成するが、形状の誇張はない。
次に、層混合モデルの粗い層に形状誇張ブロックを付加し、入力の特徴的外観を保ちながら形状誇張を作成するようにブロックを訓練する。
実験結果から,我々のStyleCariGANは,現在の最先端手法と比較して,現実的で詳細な似顔絵を生成することがわかった。
StyleCariGANは、表情制御など、他のStyleGANベースの画像操作もサポートしています。
関連論文リスト
- PS-StyleGAN: Illustrative Portrait Sketching using Attention-Based Style Adaptation [0.0]
ポートレートスケッチでは、抽象的な線と影で実際の顔のアイデンティティ固有の属性をキャプチャする。
本稿では,肖像画合成に適したスタイル転送手法である textbfPortrait Sketching StyleGAN (PS-StyleGAN) を提案する。
StyleGANのセマンティックな$W+$潜在空間を利用してポートレートスケッチを生成します。
論文 参考訳(メタデータ) (2024-08-31T04:22:45Z) - StyleShot: A Snapshot on Any Style [20.41380860802149]
テスト時間チューニングを伴わない汎用的なスタイル転送には,優れたスタイル表現が不可欠であることを示す。
スタイル認識型エンコーダと、StyleGalleryと呼ばれるよく編成されたスタイルデータセットを構築することで、これを実現する。
当社のアプローチであるStyleShotは,テストタイムチューニングを必要とせずに,さまざまなスタイルを模倣する上で,シンプルかつ効果的なものです。
論文 参考訳(メタデータ) (2024-07-01T16:05:18Z) - Portrait Diffusion: Training-free Face Stylization with
Chain-of-Painting [64.43760427752532]
顔のスタイリゼーション(face stylization)とは、顔の特定の肖像画スタイルへの変換を指す。
現在の手法では、ファインチューン事前訓練された生成モデルに対するサンプルベースの適応アプローチが必要とされる。
本稿では,ポートレートディフュージョン(Portrait Diffusion)という,トレーニング不要な顔スタイル化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-03T06:48:35Z) - Face Cartoonisation For Various Poses Using StyleGAN [0.7673339435080445]
本論文は,顔のマンガ化を実現するための革新的アプローチとして,顔の同一性を保ち,様々なポーズを付加する手法を提案する。
本研究では、画像からポーズ情報とアイデンティティ情報をキャプチャし、StyleGAN潜在空間内に対応する埋め込みを生成するエンコーダを導入する。
目的が漫画化である場合, エンコーダがStyleGAN出力にどのように適応し, アイデンティティをよりよく保存するかを, 広範囲にわたる実験により示す。
論文 参考訳(メタデータ) (2023-09-26T13:10:25Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - StyleCLIPDraw: Coupling Content and Style in Text-to-Drawing Translation [10.357474047610172]
本稿では,ユーザが所望の描画スタイルを指定可能なテキスト記述のためのスタイルドローイング生成手法を提案する。
創作過程において、スタイルと内容が分離できないという芸術理論に触発されて、我々はStyleCLIPDrawとして知られる、結合したアプローチを提案する。
人間の評価に基づいて、StyleCLIPDrawによって生成される画像のスタイルは、シーケンシャルアプローチによって強く好まれる。
論文 参考訳(メタデータ) (2022-02-24T21:03:51Z) - Fine-Grained Control of Artistic Styles in Image Generation [24.524863555822837]
生成モデルと敵の訓練により、様々な芸術様式のアート作品を人工的に生成することが可能になった。
スタイルの連続スペクトルを捕捉し,それをスタイル生成タスクに適用することを提案する。
我々の手法は、StyleGANのような共通の生成逆ネットワークで利用することができる。
論文 参考訳(メタデータ) (2021-10-19T21:51:52Z) - Unsupervised Contrastive Photo-to-Caricature Translation based on
Auto-distortion [49.93278173824292]
Photo-to-caricatureは、スケッチ、鉛筆のストローク、その他の芸術的図面を通じて特徴を誇張するレンダリング画像として、似顔絵を合成することを目的としている。
スタイルレンダリングと幾何学的変形は、フォト・ツー・キャリキュア・トランスフォーメーション・タスクにおいて最も重要な側面である。
教師なしのコントラスト変換アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-10T08:14:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。