論文の概要: DRB-GAN: A Dynamic ResBlock Generative Adversarial Network for Artistic
Style Transfer
- arxiv url: http://arxiv.org/abs/2108.07379v2
- Date: Thu, 19 Aug 2021 01:44:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-20 12:08:26.148102
- Title: DRB-GAN: A Dynamic ResBlock Generative Adversarial Network for Artistic
Style Transfer
- Title(参考訳): DRB-GAN: アーティストスタイル転送のための動的ResBlock生成逆ネットワーク
- Authors: Wenju Xu and Chengjiang Long and Ruisheng Wang and Guanghui Wang
- Abstract要約: 本稿では,芸術的スタイル伝達のための動的ResBlock Generative Adversarial Network (DRB-GAN)を提案する。
提案したDRB-GANは最先端の手法より優れ,視覚的品質と効率の点で優れた性能を示す。
- 参考スコア(独自算出の注目度): 29.20616177457981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper proposes a Dynamic ResBlock Generative Adversarial Network
(DRB-GAN) for artistic style transfer. The style code is modeled as the shared
parameters for Dynamic ResBlocks connecting both the style encoding network and
the style transfer network. In the style encoding network, a style class-aware
attention mechanism is used to attend the style feature representation for
generating the style codes. In the style transfer network, multiple Dynamic
ResBlocks are designed to integrate the style code and the extracted CNN
semantic feature and then feed into the spatial window Layer-Instance
Normalization (SW-LIN) decoder, which enables high-quality synthetic images
with artistic style transfer. Moreover, the style collection conditional
discriminator is designed to equip our DRB-GAN model with abilities for both
arbitrary style transfer and collection style transfer during the training
stage. No matter for arbitrary style transfer or collection style transfer,
extensive experiments strongly demonstrate that our proposed DRB-GAN
outperforms state-of-the-art methods and exhibits its superior performance in
terms of visual quality and efficiency. Our source code is available at
\color{magenta}{\url{https://github.com/xuwenju123/DRB-GAN}}.
- Abstract(参考訳): 本稿では,芸術的スタイル伝達のための動的ResBlock Generative Adversarial Network (DRB-GAN)を提案する。
スタイルコードは、スタイルエンコーディングネットワークとスタイル転送ネットワークを接続するDynamic ResBlocksの共有パラメータとしてモデル化される。
スタイル符号化ネットワークでは、スタイルコードを生成するためのスタイル特徴表現にスタイルクラス対応アテンション機構が使用される。
スタイル転送ネットワークでは、複数のDynamic ResBlocksがスタイルコードと抽出されたCNNセマンティック機能を統合し、空間ウィンドウのレイヤ-インスタンス正規化(SW-LIN)デコーダに入力するように設計されている。
さらに,DRB-GANモデルの学習段階における任意のスタイル転送とコレクションスタイル転送の両機能を備えたスタイル収集条件判別器を設計した。
任意のスタイルの転送やコレクションスタイルの転送はともかく,我々の提案したDRB-GANは最先端の手法よりも優れており,視覚的品質と効率の点で優れた性能を示した。
我々のソースコードは \color{magenta}{\url{https://github.com/xuwenju123/drb-gan}} で入手できる。
関連論文リスト
- DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - FreeStyle: Free Lunch for Text-guided Style Transfer using Diffusion Models [11.401299303276016]
我々は,事前学習した大拡散モデルに基づいて構築された,革新的なスタイル転送手法であるFreeStyleを紹介する。
本手法では,所望のスタイルのテキスト記述のみでスタイル転送が可能であり,スタイル画像の必要がなくなる。
実験の結果,様々なコンテンツ画像とスタイルのテキストプロンプトにまたがって,提案手法の高品質な合成と忠実さを実証した。
論文 参考訳(メタデータ) (2024-01-28T12:00:31Z) - StylerDALLE: Language-Guided Style Transfer Using a Vector-Quantized
Tokenizer of a Large-Scale Generative Model [64.26721402514957]
本論文では,自然言語を用いて抽象芸術スタイルを記述するスタイル転送手法であるStylerDALLEを提案する。
具体的には、非自己回帰的なトークンシーケンス変換として、言語誘導型転送タスクを定式化する。
スタイル情報を組み込むために,CLIPに基づく言語指導による強化学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-16T12:44:44Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - HyperNST: Hyper-Networks for Neural Style Transfer [19.71337532582559]
本稿では,Hyper-networksとStyleGAN2アーキテクチャに基づく画像の芸術的スタイリング手法を提案する。
我々の貢献は、スタイルベースビジュアルサーチ(SBVS)のために事前訓練された計量空間でパラメータ化されたスタイル転送を誘導する新しい方法である。
技術的貢献はハイパーネットワークであり、さまざまな芸術的コンテンツに対して事前訓練されたStyleGAN2の重量更新を予測する。
論文 参考訳(メタデータ) (2022-08-09T14:34:07Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - Arbitrary Video Style Transfer via Multi-Channel Correlation [84.75377967652753]
本稿では,マルチチャネル補正ネットワーク(MCCNet)を提案する。
MCCNetは、スタイルとコンテンツドメインの機能空間で直接動作する。
MCCが生成した出力は所望のスタイルパターンを含む特徴であり、鮮やかなスタイルのテクスチャでさらに画像にデコードできる。
論文 参考訳(メタデータ) (2020-09-17T01:30:46Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。