論文の概要: Style Transfer with Target Feature Palette and Attention Coloring
- arxiv url: http://arxiv.org/abs/2111.04028v1
- Date: Sun, 7 Nov 2021 08:09:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 08:07:34.091102
- Title: Style Transfer with Target Feature Palette and Attention Coloring
- Title(参考訳): ターゲット特徴パレットとアテンションカラーリングを用いたスタイル転送
- Authors: Suhyeon Ha, Guisik Kim, Junseok Kwon
- Abstract要約: 特徴パレットをターゲットとした新しい芸術的スタイル化手法を提案し,重要な特徴を正確に伝達することができる。
このスタイリング画像は、コア構造とコンテンツ画像の詳細の保存に長けながら、最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 15.775618544581885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Style transfer has attracted a lot of attentions, as it can change a given
image into one with splendid artistic styles while preserving the image
structure. However, conventional approaches easily lose image details and tend
to produce unpleasant artifacts during style transfer. In this paper, to solve
these problems, a novel artistic stylization method with target feature
palettes is proposed, which can transfer key features accurately. Specifically,
our method contains two modules, namely feature palette composition (FPC) and
attention coloring (AC) modules. The FPC module captures representative
features based on K-means clustering and produces a feature target palette. The
following AC module calculates attention maps between content and style images,
and transfers colors and patterns based on the attention map and the target
palette. These modules enable the proposed stylization to focus on key features
and generate plausibly transferred images. Thus, the contributions of the
proposed method are to propose a novel deep learning-based style transfer
method and present target feature palette and attention coloring modules, and
provide in-depth analysis and insight on the proposed method via exhaustive
ablation study. Qualitative and quantitative results show that our stylized
images exhibit state-of-the-art performance, with strength in preserving core
structures and details of the content image.
- Abstract(参考訳): イメージ構造を保ちながら、所定のイメージを華麗な芸術的スタイルに変化させることができるため、スタイル転送は多くの注目を集めている。
しかし、従来の手法では画像の詳細が失われやすく、スタイル転送時に不愉快なアーティファクトが生じる傾向にある。
本稿では,これらの問題を解決するために,特徴パレットをターゲットとした新しい芸術的スタイル化手法を提案する。
具体的には,特徴パレット合成(FPC)とアテンションカラー化(AC)の2つのモジュールを含む。
FPCモジュールはK平均クラスタリングに基づいて代表的特徴をキャプチャし、特徴目標パレットを生成する。
以下のACモジュールは、コンテンツとスタイル画像間のアテンションマップを算出し、アテンションマップとターゲットパレットに基づいて色とパターンを転送する。
これらのモジュールにより、提案されたスタイライゼーションは重要な機能に集中し、おそらく転送された画像を生成することができる。
そこで,本提案手法の寄与は,新しい深層学習に基づくスタイル伝達手法と,対象特徴パレットと注目着色モジュールの提案であり,徹底的なアブレーション研究を通じて,提案手法の詳細な分析と洞察を提供することである。
定性的かつ定量的な結果から,我々のスタイル化された画像は,コア構造と内容像の細部を保ちながら,最先端の性能を示すことが示された。
関連論文リスト
- DiffuseST: Unleashing the Capability of the Diffusion Model for Style Transfer [13.588643982359413]
スタイル転送は、スタイル画像の芸術的表現をコンテンツ画像の構造情報と融合させることを目的としている。
既存の方法は特定のネットワークを訓練したり、事前訓練されたモデルを使ってコンテンツやスタイルの特徴を学習する。
本稿では,テキスト埋め込みと空間的特徴を組み合わせた,新しい学習不要なスタイル伝達手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:42:43Z) - AEANet: Affinity Enhanced Attentional Networks for Arbitrary Style Transfer [4.639424509503966]
合理的な学術研究とエモーティブな芸術的創造を組み合わせた研究分野。
対象の芸術的スタイルに従ってコンテンツイメージから新たなイメージを作成し、コンテンツのテクスチャ構造情報を維持することを目的としている。
既存のスタイル転送方式は、スタイル変換時のコンテンツ画像のテクスチャ線を著しく損なうことが多い。
本稿では,コンテンツ親和性強調モジュール(CAEA),スタイル親和性強調モジュール(SAEA),ハイブリッド親和性強調モジュール(HA)を含む親和性強調ネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T01:39:11Z) - MagicStyle: Portrait Stylization Based on Reference Image [0.562479170374811]
そこで我々は,MagicStyleと呼ばれるポートレートに特化して,拡散モデルに基づく参照画像スタイリング手法を提案する。
Cフェーズは、DDIMインバージョンをコンテンツイメージとスタイルイメージとで別々に実行し、インバージョンプロセス中に両方の画像の自己アテンションクエリ、キーと値の特徴を格納するリバースデノナイズ処理を含む。
FFFフェーズは、事前記憶された特徴クエリ、キー、値からのテクスチャと色情報を、よく設計された特徴融合注意(FFA)に基づいて拡散生成プロセスに統合する。
論文 参考訳(メタデータ) (2024-09-12T15:51:09Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Implicit Style-Content Separation using B-LoRA [61.664293840163865]
一つの画像のスタイルとコンテンツコンポーネントを暗黙的に分離する手法であるB-LoRAを紹介する。
SDXLのアーキテクチャをLoRAと組み合わせて解析することにより、2つのブロックのLoRA重みを共同で学習することで、スタイル・コンテント分離を実現する。
論文 参考訳(メタデータ) (2024-03-21T17:20:21Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - UMFA: A photorealistic style transfer method based on U-Net and
multi-layer feature aggregation [0.0]
本稿では,フォトリアリスティックなイメージスタイリングの自然な効果を強調するために,フォトリアリスティックなスタイル転送ネットワークを提案する。
特に、高密度ブロックに基づくエンコーダとU-Netの対称構造を形成するデコーダとを連立して、効率的な特徴抽出と画像再構成を実現する。
論文 参考訳(メタデータ) (2021-08-13T08:06:29Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。