論文の概要: Arbitrary Style Transfer via Multi-Adaptation Network
- arxiv url: http://arxiv.org/abs/2005.13219v2
- Date: Sun, 16 Aug 2020 05:28:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:01:05.669910
- Title: Arbitrary Style Transfer via Multi-Adaptation Network
- Title(参考訳): マルチアダプションネットワークによる任意のスタイル転送
- Authors: Yingying Deng, Fan Tang, Weiming Dong, Wen Sun, Feiyue Huang,
Changsheng Xu
- Abstract要約: 所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
- 参考スコア(独自算出の注目度): 109.6765099732799
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arbitrary style transfer is a significant topic with research value and
application prospect. A desired style transfer, given a content image and
referenced style painting, would render the content image with the color tone
and vivid stroke patterns of the style painting while synchronously maintaining
the detailed content structure information. Style transfer approaches would
initially learn content and style representations of the content and style
references and then generate the stylized images guided by these
representations. In this paper, we propose the multi-adaptation network which
involves two self-adaptation (SA) modules and one co-adaptation (CA) module:
the SA modules adaptively disentangle the content and style representations,
i.e., content SA module uses position-wise self-attention to enhance content
representation and style SA module uses channel-wise self-attention to enhance
style representation; the CA module rearranges the distribution of style
representation based on content representation distribution by calculating the
local similarity between the disentangled content and style features in a
non-local fashion. Moreover, a new disentanglement loss function enables our
network to extract main style patterns and exact content structures to adapt to
various input images, respectively. Various qualitative and quantitative
experiments demonstrate that the proposed multi-adaptation network leads to
better results than the state-of-the-art style transfer methods.
- Abstract(参考訳): 任意のスタイル転送は、研究価値とアプリケーションの展望を伴う重要なトピックである。
所望のスタイル転送は、コンテンツ画像と参照されたスタイル絵画が与えられ、詳細なコンテンツ構造情報を同期して保持しながら、コンテンツ画像をスタイル絵画の色調と鮮やかなストロークパターンでレンダリングする。
スタイル転送アプローチは、まずコンテンツとスタイル参照のコンテンツとスタイル表現を学習し、それからこれらの表現によって導かれたスタイル化されたイメージを生成する。
In this paper, we propose the multi-adaptation network which involves two self-adaptation (SA) modules and one co-adaptation (CA) module: the SA modules adaptively disentangle the content and style representations, i.e., content SA module uses position-wise self-attention to enhance content representation and style SA module uses channel-wise self-attention to enhance style representation; the CA module rearranges the distribution of style representation based on content representation distribution by calculating the local similarity between the disentangled content and style features in a non-local fashion.
さらに,新たな不等角化損失関数により,本ネットワークは,入力画像に適応する主スタイルパターンと正確なコンテンツ構造を抽出することができる。
様々な定性的および定量的実験により、提案したマルチ適応ネットワークは、最先端スタイルの転送方法よりも優れた結果をもたらすことが示された。
関連論文リスト
- Generative AI Model for Artistic Style Transfer Using Convolutional
Neural Networks [0.0]
芸術的なスタイルの転送は、ある画像の内容を別の芸術的なスタイルに融合させ、ユニークな視覚的な構成を作り出すことである。
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいスタイル伝達手法の概要を概説する。
論文 参考訳(メタデータ) (2023-10-27T16:21:17Z) - InfoStyler: Disentanglement Information Bottleneck for Artistic Style
Transfer [22.29381866838179]
アートスタイルの転送は、アートワークのスタイルを、オリジナル全体のコンテンツを維持しながら写真に転送することを目的としている。
本稿では,コンテンツとスタイル表現の両面において,最小限の情報を取得するために,InfoStylerという新しい情報分離手法を提案する。
論文 参考訳(メタデータ) (2023-07-30T13:38:56Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - Learning Dynamic Style Kernels for Artistic Style Transfer [26.19086645743083]
本研究では,空間適応型カーネルを画素ごとのスタイリングのために学習する新しい手法を提案する。
提案手法は最先端の手法より優れ,視覚的品質と効率の点で優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-02T00:26:43Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z) - Arbitrary Video Style Transfer via Multi-Channel Correlation [84.75377967652753]
本稿では,マルチチャネル補正ネットワーク(MCCNet)を提案する。
MCCNetは、スタイルとコンテンツドメインの機能空間で直接動作する。
MCCが生成した出力は所望のスタイルパターンを含む特徴であり、鮮やかなスタイルのテクスチャでさらに画像にデコードできる。
論文 参考訳(メタデータ) (2020-09-17T01:30:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。