論文の概要: Fine-Grained Control of Artistic Styles in Image Generation
- arxiv url: http://arxiv.org/abs/2110.10278v1
- Date: Tue, 19 Oct 2021 21:51:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 07:52:02.465298
- Title: Fine-Grained Control of Artistic Styles in Image Generation
- Title(参考訳): 画像生成における芸術スタイルの細粒度制御
- Authors: Xin Miao, Huayan Wang, Jun Fu, Jiayi Liu, Shen Wang, Zhenyu Liao
- Abstract要約: 生成モデルと敵の訓練により、様々な芸術様式のアート作品を人工的に生成することが可能になった。
スタイルの連続スペクトルを捕捉し,それをスタイル生成タスクに適用することを提案する。
我々の手法は、StyleGANのような共通の生成逆ネットワークで利用することができる。
- 参考スコア(独自算出の注目度): 24.524863555822837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in generative models and adversarial training have enabled
artificially generating artworks in various artistic styles. It is highly
desirable to gain more control over the generated style in practice. However,
artistic styles are unlike object categories -- there are a continuous spectrum
of styles distinguished by subtle differences. Few works have been explored to
capture the continuous spectrum of styles and apply it to a style generation
task. In this paper, we propose to achieve this by embedding original artwork
examples into a continuous style space. The style vectors are fed to the
generator and discriminator to achieve fine-grained control. Our method can be
used with common generative adversarial networks (such as StyleGAN).
Experiments show that our method not only precisely controls the fine-grained
artistic style but also improves image quality over vanilla StyleGAN as
measured by FID.
- Abstract(参考訳): 生成モデルと敵対的トレーニングの最近の進歩により、様々な芸術様式で人工的にアートワークを作成できるようになった。
実際に生成されたスタイルをよりコントロールすることが非常に望ましい。
しかし、芸術的なスタイルは対象のカテゴリと異なり、微妙な違いによって区別されるスタイルの連続的なスペクトルがある。
スタイルの連続的なスペクトルを捕捉し、スタイル生成タスクに適用するための研究はほとんど行われていない。
本稿では,オリジナルアートの例を連続的なスタイル空間に埋め込むことで,これを実現することを提案する。
スタイルベクトルは、ジェネレータおよび判別器に供給され、きめ細かい制御を実現する。
本手法は,一般的な生成型逆ネットワーク (stylegan など) で使用可能である。
FIDで測定したバニラスタイルGANよりも精細な芸術的スタイルを正確に制御できるだけでなく,画質の向上も図っている。
関連論文リスト
- StyleShot: A Snapshot on Any Style [20.41380860802149]
テスト時間チューニングを伴わない汎用的なスタイル転送には,優れたスタイル表現が不可欠であることを示す。
スタイル認識型エンコーダと、StyleGalleryと呼ばれるよく編成されたスタイルデータセットを構築することで、これを実現する。
当社のアプローチであるStyleShotは,テストタイムチューニングを必要とせずに,さまざまなスタイルを模倣する上で,シンプルかつ効果的なものです。
論文 参考訳(メタデータ) (2024-07-01T16:05:18Z) - Style Aligned Image Generation via Shared Attention [61.121465570763085]
本稿では,一連の生成画像間のスタイルアライメントを確立する技術であるStyleAlignedを紹介する。
拡散過程において、最小限の注意共有を生かして、T2Iモデル内の画像間のスタイル整合性を維持する。
本手法は,多種多様なスタイルやテキストのプロンプトにまたがって評価を行い,高品質で忠実であることを示す。
論文 参考訳(メタデータ) (2023-12-04T18:55:35Z) - DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - Few-shot Font Generation by Learning Style Difference and Similarity [84.76381937516356]
異なるスタイルの違いと同一スタイルの類似性(DS-Font)を学習する新しいフォント生成手法を提案する。
具体的には,提案するクラスタレベルコントラシブ・スタイル(CCS)の損失により,スタイルエンコーディングを実現する多層型プロジェクタを提案する。
論文 参考訳(メタデータ) (2023-01-24T13:57:25Z) - QuantArt: Quantizing Image Style Transfer Towards High Visual Fidelity [94.5479418998225]
視覚的忠実度の高いスタイリングのためのQuantArtと呼ばれる新しいスタイル転送フレームワークを提案する。
本フレームワークは,既存のスタイル転送方式と比較して,視覚的忠実度を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T17:09:53Z) - Arbitrary Style Guidance for Enhanced Diffusion-Based Text-to-Image
Generation [13.894251782142584]
GLIDE や DALLE-2 のような拡散ベースのテキスト・画像生成モデルは近年広く成功している。
本稿では,参照画像でガイドされた任意のスタイルを用いた画像生成を支援する新しいスタイルガイダンス手法を提案する。
論文 参考訳(メタデータ) (2022-11-14T20:52:57Z) - Style-Agnostic Reinforcement Learning [9.338454092492901]
本稿では,スタイル伝達と逆学習の両方を用いて,スタイル非依存表現を学習する新しい手法を提案する。
本手法は,固有対向型生成器から生成される多様な画像スタイルでアクターを訓練する。
提案手法は,Procgen and Distracting Control Suiteベンチマークにおける最先端の手法よりも,競争力や性能の向上が期待できる。
論文 参考訳(メタデータ) (2022-08-31T13:45:00Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - Anisotropic Stroke Control for Multiple Artists Style Transfer [36.92721585146738]
Stroke Control Multi-Artist Style Transferフレームワークを開発した。
異方性ストロークモジュール(ASM)は、様々なスタイルで適応的なセマンティック一貫性を持つネットワークを提供する。
単一スケールの条件付き識別器とは対照的に,識別器はマルチスケールのテクスチャの手がかりを捉えることができる。
論文 参考訳(メタデータ) (2020-10-16T05:32:26Z) - Multi-Attribute Guided Painting Generation [73.75835513261951]
制御可能な絵画生成は、イメージスタイリゼーションにおいて重要な役割を担っている。
本稿では,絵画の複数の属性を取り入れた新しい枠組みを提案し,そのスタイル化結果を制御した。
論文 参考訳(メタデータ) (2020-02-26T02:22:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。