論文の概要: Domain-Aware Universal Style Transfer
- arxiv url: http://arxiv.org/abs/2108.04441v2
- Date: Wed, 11 Aug 2021 05:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 10:29:47.230552
- Title: Domain-Aware Universal Style Transfer
- Title(参考訳): ドメイン対応ユニバーサルスタイル転送
- Authors: Kibeom Hong, Seogkyu Jeon, Huan Yang, Jianlong Fu, Hyeran Byun
- Abstract要約: 既存の普遍的なスタイル転送手法は、芸術的または写真リアルな方法で、任意のスタイルをオリジナルの画像に届けることに成功した。
本稿では,DSTN(Domain-Aware Style Transfer Network)という統合アーキテクチャを提案する。
本モデルでは, より質的な結果が得られ, 芸術的, フォトリアリスティックなスタイル化の両面で, 従来の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 34.89191913595395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style transfer aims to reproduce content images with the styles from
reference images. Existing universal style transfer methods successfully
deliver arbitrary styles to original images either in an artistic or a
photo-realistic way. However, the range of 'arbitrary style' defined by
existing works is bounded in the particular domain due to their structural
limitation. Specifically, the degrees of content preservation and stylization
are established according to a predefined target domain. As a result, both
photo-realistic and artistic models have difficulty in performing the desired
style transfer for the other domain. To overcome this limitation, we propose a
unified architecture, Domain-aware Style Transfer Networks (DSTN) that transfer
not only the style but also the property of domain (i.e., domainness) from a
given reference image. To this end, we design a novel domainness indicator that
captures the domainness value from the texture and structural features of
reference images. Moreover, we introduce a unified framework with domain-aware
skip connection to adaptively transfer the stroke and palette to the input
contents guided by the domainness indicator. Our extensive experiments validate
that our model produces better qualitative results and outperforms previous
methods in terms of proxy metrics on both artistic and photo-realistic
stylizations.
- Abstract(参考訳): スタイル転送は、参照画像からスタイルでコンテンツイメージを再生することを目的としている。
既存のユニバーサルスタイル転送手法は、芸術的またはフォトリアリズム的な方法で、オリジナルイメージに任意のスタイルを届けることに成功した。
しかし、既存の作品で定義されている「アービタリースタイル」の範囲は、その構造的制限のため、特定の領域に制限されている。
具体的には、予め定義された対象領域に従ってコンテンツ保存及びスタイリゼーションの度合いを確立する。
その結果、フォトリアリスティックモデルと芸術モデルの両方が、他のドメインに対して望ましいスタイル転送を行うのに困難である。
この制限を克服するために、ドメイン対応スタイル転送ネットワーク(DSTN)という統一アーキテクチャを提案し、そのスタイルだけでなく、ドメインの性質(すなわち、ドメイン性)を与えられた参照画像から転送する。
この目的のために,参照画像のテクスチャと構造的特徴からドメイン性値をキャプチャする新しいドメイン性インジケータを設計する。
さらに,ストロークとパレットを,ドメイン性インジケータが指示する入力内容に適応的に転送する,ドメイン認識スキップ接続を備えた統一フレームワークを提案する。
広範な実験により,我々のモデルが質的結果を生み出すことを検証し,芸術的およびフォトリアリスティックなスタイライゼーションの指標として,これまでの手法を上回った。
関連論文リスト
- Coarse-to-Fine Structure-Aware Artistic Style Transfer [3.5485551392251042]
アーティスティック・スタイル・トランスファーは、スタイル・イメージとコンテンツ・イメージを使用して、スタイル・イメージと同じ芸術的表現を保持するターゲット・イメージを合成することを目的としている。
最近提案された多くのスタイル転送手法には共通の問題がある。つまり、スタイル画像のテクスチャと色をコンテンツ画像のグローバルな構造に単純に転送する。
本稿では,ローカルなスタイル構造をローカルなコンテンツ構造に融合させながら,スタイルパターンの転送に有効な方法を提案する。
論文 参考訳(メタデータ) (2025-02-08T00:04:12Z) - AEANet: Affinity Enhanced Attentional Networks for Arbitrary Style Transfer [4.639424509503966]
合理的な学術研究とエモーティブな芸術的創造を組み合わせた研究分野。
対象の芸術的スタイルに従ってコンテンツイメージから新たなイメージを作成し、コンテンツのテクスチャ構造情報を維持することを目的としている。
既存のスタイル転送方式は、スタイル変換時のコンテンツ画像のテクスチャ線を著しく損なうことが多い。
本稿では,コンテンツ親和性強調モジュール(CAEA),スタイル親和性強調モジュール(SAEA),ハイブリッド親和性強調モジュール(HA)を含む親和性強調ネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T01:39:11Z) - TSSAT: Two-Stage Statistics-Aware Transformation for Artistic Style
Transfer [22.16475032434281]
芸術的スタイルの転送は、対象の芸術的スタイルで与えられた写真をレンダリングすることで、新しい芸術的イメージを作成することを目的としている。
既存の手法では、グローバルな統計や局所的なパッチに基づいてスタイルを学習し、実際の描画過程の注意深い考慮を欠いている。
本稿では,コンテンツとスタイルの特徴のグローバルな統計を整合させて,まずグローバルなスタイル基盤を構築する2段階統計認識変換(TSSAT)モジュールを提案する。
コンテンツとスタイルの表現をさらに強化するために、注意に基づくコンテンツ損失とパッチベースのスタイル損失という2つの新しい損失を導入する。
論文 参考訳(メタデータ) (2023-09-12T07:02:13Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - UMFA: A photorealistic style transfer method based on U-Net and
multi-layer feature aggregation [0.0]
本稿では,フォトリアリスティックなイメージスタイリングの自然な効果を強調するために,フォトリアリスティックなスタイル転送ネットワークを提案する。
特に、高密度ブロックに基づくエンコーダとU-Netの対称構造を形成するデコーダとを連立して、効率的な特徴抽出と画像再構成を実現する。
論文 参考訳(メタデータ) (2021-08-13T08:06:29Z) - SAFIN: Arbitrary Style Transfer With Self-Attentive Factorized Instance
Normalization [71.85169368997738]
芸術的スタイル転送は、ある画像のスタイル特性を他の画像に移し、その内容を保持することを目的としている。
自己注意に基づくアプローチは、部分的な成功でこの問題に取り組みましたが、望ましくない成果物に悩まされています。
本論文は,自己意識と正規化という両世界のベストを結合することを目的とする。
論文 参考訳(メタデータ) (2021-05-13T08:01:01Z) - DRANet: Disentangling Representation and Adaptation Networks for
Unsupervised Cross-Domain Adaptation [23.588766224169493]
dranetは画像表現を分離し、教師なしのクロスドメイン適応のために潜在空間に視覚属性を転送するネットワークアーキテクチャである。
私たちのモデルは、ソースイメージとターゲットイメージの両方からコンテンツ(シーン構造)とスタイル(芸術的外観)の個々の表現をエンコードします。
変換されたスタイルファクタを、各ドメインに指定された学習可能なウェイトと共にコンテンツファクタに組み込むことで、ドメインに適応する。
論文 参考訳(メタデータ) (2021-03-24T18:54:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。