論文の概要: AesUST: Towards Aesthetic-Enhanced Universal Style Transfer
- arxiv url: http://arxiv.org/abs/2208.13016v1
- Date: Sat, 27 Aug 2022 13:51:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:52:33.722028
- Title: AesUST: Towards Aesthetic-Enhanced Universal Style Transfer
- Title(参考訳): AesUST:美的拡張ユニバーサルスタイルトランスファーを目指して
- Authors: Zhizhong Wang, Zhanjie Zhang, Lei Zhao, Zhiwen Zuo, Ailin Li, Wei
Xing, Dongming Lu
- Abstract要約: AesUSTは、新しいユニバーサルスタイルトランスファーアプローチである。
本研究では, 芸術作品の大規模なコーパスから, 普遍的な美的特徴を学習するための美的差別化手法を提案する。
また,モデルをより効果的にトレーニングするために,2つの審美規則を組み込んだ新しい2段階移動訓練戦略を開発した。
- 参考スコア(独自算出の注目度): 15.078430702469886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have shown remarkable success in universal style transfer
which transfers arbitrary visual styles to content images. However, existing
approaches suffer from the aesthetic-unrealistic problem that introduces
disharmonious patterns and evident artifacts, making the results easy to spot
from real paintings. To address this limitation, we propose AesUST, a novel
Aesthetic-enhanced Universal Style Transfer approach that can generate
aesthetically more realistic and pleasing results for arbitrary styles.
Specifically, our approach introduces an aesthetic discriminator to learn the
universal human-delightful aesthetic features from a large corpus of
artist-created paintings. Then, the aesthetic features are incorporated to
enhance the style transfer process via a novel Aesthetic-aware Style-Attention
(AesSA) module. Such an AesSA module enables our AesUST to efficiently and
flexibly integrate the style patterns according to the global aesthetic channel
distribution of the style image and the local semantic spatial distribution of
the content image. Moreover, we also develop a new two-stage transfer training
strategy with two aesthetic regularizations to train our model more
effectively, further improving stylization performance. Extensive experiments
and user studies demonstrate that our approach synthesizes aesthetically more
harmonious and realistic results than state of the art, greatly narrowing the
disparity with real artist-created paintings. Our code is available at
https://github.com/EndyWon/AesUST.
- Abstract(参考訳): 近年の研究では、任意の視覚的スタイルをコンテンツイメージに転送するユニバーサルスタイル転送が目覚ましい成功を収めている。
しかし、既存のアプローチでは、無害なパターンや明白なアーティファクトを導入して、実際の絵画から簡単に見分けられるような美的非現実的な問題に苦しめられている。
この制限に対処するため,任意のスタイルに対する美的かつリアルな結果を生成する新しいユニバーサルスタイル転送手法であるAesUSTを提案する。
具体的には,芸術作品のコーパスから普遍的な美的特徴を学ぶための美的判別器を導入する。
次に、新規なAESSAモジュールを介して、スタイル伝達プロセスを強化するために、審美的特徴を組み込んだ。
このようなaesaモジュールにより、スタイル画像のグローバル美的チャネル分布とコンテンツ画像の局所的な意味空間分布とに応じて、スタイルパターンを効率的かつ柔軟に統合することができる。
さらに,2つの審美規則を組み込んだ新しい2段階移動訓練戦略を開発し,モデルをより効果的に訓練し,スタイリゼーション性能を向上する。
広範な実験とユーザスタディにより,本手法は芸術の状況よりも美学的に調和的で現実的な結果を合成し,実際の芸術家による絵画との差異を大幅に狭めていることが示された。
私たちのコードはhttps://github.com/endywon/aesustで利用可能です。
関連論文リスト
- Towards Highly Realistic Artistic Style Transfer via Stable Diffusion with Step-aware and Layer-aware Prompt [12.27693060663517]
芸術的スタイルの転送は、学習した芸術的スタイルを任意のコンテンツイメージに転送することを目的としており、芸術的なスタイル化されたイメージを生成する。
LSASTと呼ばれる,事前学習型拡散型アートスタイルトランスファー手法を提案する。
提案手法は,最先端の芸術的スタイル伝達法よりも,よりリアルな芸術的スタイル化画像を生成することができる。
論文 参考訳(メタデータ) (2024-04-17T15:28:53Z) - CreativeSynth: Creative Blending and Synthesis of Visual Arts based on
Multimodal Diffusion [74.44273919041912]
大規模なテキスト・画像生成モデルは印象的な進歩を遂げ、高品質な画像を合成する能力を示している。
しかし、これらのモデルを芸術的な画像編集に適用することは、2つの重要な課題を提起する。
我々は,マルチモーダル入力をコーディネートする拡散モデルに基づく,革新的な統一フレームワークCreative Synthを構築した。
論文 参考訳(メタデータ) (2024-01-25T10:42:09Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - ArtBank: Artistic Style Transfer with Pre-trained Diffusion Model and
Implicit Style Prompt Bank [9.99530386586636]
アートスタイルの転送は、学習したアートスタイルでコンテンツイメージを再描画することを目的としている。
既存のスタイル転送手法は、小さなモデルベースアプローチと、事前訓練された大規模モデルベースアプローチの2つのカテゴリに分けられる。
本研究では,高度にリアルなスタイライズされた画像を生成するために,アートバンクという新しいスタイル転送フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-11T05:53:40Z) - Generative AI Model for Artistic Style Transfer Using Convolutional
Neural Networks [0.0]
芸術的なスタイルの転送は、ある画像の内容を別の芸術的なスタイルに融合させ、ユニークな視覚的な構成を作り出すことである。
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいスタイル伝達手法の概要を概説する。
論文 参考訳(メタデータ) (2023-10-27T16:21:17Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - SAFIN: Arbitrary Style Transfer With Self-Attentive Factorized Instance
Normalization [71.85169368997738]
芸術的スタイル転送は、ある画像のスタイル特性を他の画像に移し、その内容を保持することを目的としている。
自己注意に基づくアプローチは、部分的な成功でこの問題に取り組みましたが、望ましくない成果物に悩まされています。
本論文は,自己意識と正規化という両世界のベストを結合することを目的とする。
論文 参考訳(メタデータ) (2021-05-13T08:01:01Z) - Art Style Classification with Self-Trained Ensemble of AutoEncoding
Transformations [5.835728107167379]
絵画の芸術的スタイルは豊かな記述物であり、アーティストが創造的なビジョンをどのように表現し表現するかについての視覚的知識と深い本質的な知識の両方を明らかにする。
本稿では,高度な自己指導型学習手法を用いて,クラス内およびクラス間変動の少ない複雑な芸術的スタイルを認識することの課題を解決する。
論文 参考訳(メタデータ) (2020-12-06T21:05:23Z) - Joint Bilateral Learning for Real-time Universal Photorealistic Style
Transfer [18.455002563426262]
フォトリアリスティックなスタイル転送は、画像の芸術的スタイルをコンテンツターゲットに転送し、カメラで撮影可能な結果を生成するタスクである。
ディープニューラルネットワークに基づく最近のアプローチでは、印象的な結果が得られるが、現実的な解像度での実行には遅すぎるか、好ましくないアーティファクトがまだ含まれている。
高速かつ本質的にフォトリアリスティックな結果を生成するフォトリアリスティックなスタイル転送のための新しいエンド・ツー・エンドモデルを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。