論文の概要: Style Transfer with Target Feature Palette and Attention Coloring
- arxiv url: http://arxiv.org/abs/2111.04028v1
- Date: Sun, 7 Nov 2021 08:09:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 08:07:34.091102
- Title: Style Transfer with Target Feature Palette and Attention Coloring
- Title(参考訳): ターゲット特徴パレットとアテンションカラーリングを用いたスタイル転送
- Authors: Suhyeon Ha, Guisik Kim, Junseok Kwon
- Abstract要約: 特徴パレットをターゲットとした新しい芸術的スタイル化手法を提案し,重要な特徴を正確に伝達することができる。
このスタイリング画像は、コア構造とコンテンツ画像の詳細の保存に長けながら、最先端のパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 15.775618544581885
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Style transfer has attracted a lot of attentions, as it can change a given
image into one with splendid artistic styles while preserving the image
structure. However, conventional approaches easily lose image details and tend
to produce unpleasant artifacts during style transfer. In this paper, to solve
these problems, a novel artistic stylization method with target feature
palettes is proposed, which can transfer key features accurately. Specifically,
our method contains two modules, namely feature palette composition (FPC) and
attention coloring (AC) modules. The FPC module captures representative
features based on K-means clustering and produces a feature target palette. The
following AC module calculates attention maps between content and style images,
and transfers colors and patterns based on the attention map and the target
palette. These modules enable the proposed stylization to focus on key features
and generate plausibly transferred images. Thus, the contributions of the
proposed method are to propose a novel deep learning-based style transfer
method and present target feature palette and attention coloring modules, and
provide in-depth analysis and insight on the proposed method via exhaustive
ablation study. Qualitative and quantitative results show that our stylized
images exhibit state-of-the-art performance, with strength in preserving core
structures and details of the content image.
- Abstract(参考訳): イメージ構造を保ちながら、所定のイメージを華麗な芸術的スタイルに変化させることができるため、スタイル転送は多くの注目を集めている。
しかし、従来の手法では画像の詳細が失われやすく、スタイル転送時に不愉快なアーティファクトが生じる傾向にある。
本稿では,これらの問題を解決するために,特徴パレットをターゲットとした新しい芸術的スタイル化手法を提案する。
具体的には,特徴パレット合成(FPC)とアテンションカラー化(AC)の2つのモジュールを含む。
FPCモジュールはK平均クラスタリングに基づいて代表的特徴をキャプチャし、特徴目標パレットを生成する。
以下のACモジュールは、コンテンツとスタイル画像間のアテンションマップを算出し、アテンションマップとターゲットパレットに基づいて色とパターンを転送する。
これらのモジュールにより、提案されたスタイライゼーションは重要な機能に集中し、おそらく転送された画像を生成することができる。
そこで,本提案手法の寄与は,新しい深層学習に基づくスタイル伝達手法と,対象特徴パレットと注目着色モジュールの提案であり,徹底的なアブレーション研究を通じて,提案手法の詳細な分析と洞察を提供することである。
定性的かつ定量的な結果から,我々のスタイル化された画像は,コア構造と内容像の細部を保ちながら,最先端の性能を示すことが示された。
関連論文リスト
- Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - PalGAN: Image Colorization with Palette Generative Adversarial Networks [51.59276436217957]
そこで本研究では,パレット推定とカラーアテンションを統合した新しいGANベースのカラー化手法PalGANを提案する。
PalGANは、定量的評価と視覚比較において最先端の成果を上げ、顕著な多様性、コントラスト、およびエッジ保存の外観を提供する。
論文 参考訳(メタデータ) (2022-10-20T12:28:31Z) - Inharmonious Region Localization with Auxiliary Style Feature [19.146209624835322]
不調和領域の局在化は、不調和領域を合成画像でローカライズすることを目的としている。
識別的特徴を抽出する新しいカラーマッピングモジュールとスタイル特徴損失を提案する。
また,抽出したスタイルの特徴に基づいて,不調和領域の局所化を導く新しいスタイル投票モジュールを提案する。
論文 参考訳(メタデータ) (2022-10-05T05:37:35Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - UMFA: A photorealistic style transfer method based on U-Net and
multi-layer feature aggregation [0.0]
本稿では,フォトリアリスティックなイメージスタイリングの自然な効果を強調するために,フォトリアリスティックなスタイル転送ネットワークを提案する。
特に、高密度ブロックに基づくエンコーダとU-Netの対称構造を形成するデコーダとを連立して、効率的な特徴抽出と画像再構成を実現する。
論文 参考訳(メタデータ) (2021-08-13T08:06:29Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。