論文の概要: Anisotropic Stroke Control for Multiple Artists Style Transfer
- arxiv url: http://arxiv.org/abs/2010.08175v2
- Date: Mon, 14 Jun 2021 14:25:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 20:12:12.194368
- Title: Anisotropic Stroke Control for Multiple Artists Style Transfer
- Title(参考訳): 複数のアーティストスタイル転送のための異方性ストローク制御
- Authors: Xuanhong Chen, Xirui Yan, Naiyuan Liu, Ting Qiu and Bingbing Ni
- Abstract要約: Stroke Control Multi-Artist Style Transferフレームワークを開発した。
異方性ストロークモジュール(ASM)は、様々なスタイルで適応的なセマンティック一貫性を持つネットワークを提供する。
単一スケールの条件付き識別器とは対照的に,識別器はマルチスケールのテクスチャの手がかりを捉えることができる。
- 参考スコア(独自算出の注目度): 36.92721585146738
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Though significant progress has been made in artistic style transfer,
semantic information is usually difficult to be preserved in a fine-grained
locally consistent manner by most existing methods, especially when multiple
artists styles are required to transfer within one single model. To circumvent
this issue, we propose a Stroke Control Multi-Artist Style Transfer framework.
On the one hand, we develop a multi-condition single-generator structure which
first performs multi-artist style transfer. On the one hand, we design an
Anisotropic Stroke Module (ASM) which realizes the dynamic adjustment of
style-stroke between the non-trivial and the trivial regions. ASM endows the
network with the ability of adaptive semantic-consistency among various styles.
On the other hand, we present an novel Multi-Scale Projection Discriminator} to
realize the texture-level conditional generation. In contrast to the
single-scale conditional discriminator, our discriminator is able to capture
multi-scale texture clue to effectively distinguish a wide range of artistic
styles. Extensive experimental results well demonstrate the feasibility and
effectiveness of our approach. Our framework can transform a photograph into
different artistic style oil painting via only ONE single model. Furthermore,
the results are with distinctive artistic style and retain the anisotropic
semantic information. The code is already available on github:
https://github.com/neuralchen/ASMAGAN.
- Abstract(参考訳): 芸術的なスタイルの移行では大きな進歩があったが、特に複数のアーティストスタイルが1つのモデルに移行する必要がある場合、既存のほとんどの方法によって、セマンティック情報をきめ細かな局所的に一貫した方法で保存することは通常困難である。
この問題を回避するため,ストローク制御型マルチアーティスト方式トランスファーフレームワークを提案する。
本研究では,まずマルチアーティスト方式の転送を行う多条件単一生成器構造を開発する。
一方,非自明な領域と自明な領域間のスタイルストロークの動的調整を実現するASM(Anisotropic Stroke Module)を設計する。
ASMは、様々なスタイルで適応的なセマンティック一貫性を持つネットワークを提供する。
一方, テクスチャレベル条件生成を実現するために, 新たなマルチスケール投影判別器を提案する。
単一条件判別器とは対照的に,識別器は多スケールテクスチャの手がかりを捉え,幅広い芸術様式を効果的に識別することができる。
広範な実験結果から,本手法の有効性と有効性が実証された。
我々の枠組みは、1つのモデルだけで、写真を異なる芸術スタイルの油絵に変えることができる。
さらに、結果は独特の芸術様式で、異方性の意味情報を保持する。
コードはすでにgithubで入手できる。 https://github.com/neuralchen/ASMAGAN。
関連論文リスト
- Diffusion-based Human Motion Style Transfer with Semantic Guidance [23.600154466988073]
拡散モデルに基づく数ショットスタイルのトランスファー学習のための新しいフレームワークを提案する。
第1段階では,拡散に基づくテキスト・ツー・モーション・モデルを生成前として事前学習する。
第2段階では、単一スタイルの例に基づいて、事前学習した拡散モデルを数ショットで微調整し、スタイル転送を可能にする。
論文 参考訳(メタデータ) (2024-03-20T05:52:11Z) - DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - ArtFusion: Controllable Arbitrary Style Transfer using Dual Conditional
Latent Diffusion Models [0.0]
Arbitrary Style Transfer (AST)は、任意のアートワークからスタイルを採用することで、イメージを変換することを目的としている。
我々は、コンテンツとスタイルの柔軟なバランスを提供する新しいアプローチ、ArtFusionを提案する。
論文 参考訳(メタデータ) (2023-06-15T17:58:36Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - QuantArt: Quantizing Image Style Transfer Towards High Visual Fidelity [94.5479418998225]
視覚的忠実度の高いスタイリングのためのQuantArtと呼ばれる新しいスタイル転送フレームワークを提案する。
本フレームワークは,既存のスタイル転送方式と比較して,視覚的忠実度を著しく向上させる。
論文 参考訳(メタデータ) (2022-12-20T17:09:53Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - SAFIN: Arbitrary Style Transfer With Self-Attentive Factorized Instance
Normalization [71.85169368997738]
芸術的スタイル転送は、ある画像のスタイル特性を他の画像に移し、その内容を保持することを目的としている。
自己注意に基づくアプローチは、部分的な成功でこの問題に取り組みましたが、望ましくない成果物に悩まされています。
本論文は,自己意識と正規化という両世界のベストを結合することを目的とする。
論文 参考訳(メタデータ) (2021-05-13T08:01:01Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。