論文の概要: All-to-key Attention for Arbitrary Style Transfer
- arxiv url: http://arxiv.org/abs/2212.04105v2
- Date: Thu, 6 Apr 2023 07:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 17:35:14.334281
- Title: All-to-key Attention for Arbitrary Style Transfer
- Title(参考訳): 任意のスタイル転送に対するオール・トゥ・キーの注意
- Authors: Mingrui Zhu, Xiao He, Nannan Wang, Xiaoyu Wang, Xinbo Gao
- Abstract要約: コンテンツ特徴のそれぞれの位置を,スタイル特徴の安定なキー位置と一致させる,新しいオール・ツー・キーアテンション機構を提案する。
結果、StyA2Kと呼ばれるモジュールは、セマンティック構造を保持し、一貫性のあるスタイルパターンをレンダリングする際、素晴らしいパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 98.83954812536521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attention-based arbitrary style transfer studies have shown promising
performance in synthesizing vivid local style details. They typically use the
all-to-all attention mechanism -- each position of content features is fully
matched to all positions of style features. However, all-to-all attention tends
to generate distorted style patterns and has quadratic complexity, limiting the
effectiveness and efficiency of arbitrary style transfer. In this paper, we
propose a novel all-to-key attention mechanism -- each position of content
features is matched to stable key positions of style features -- that is more
in line with the characteristics of style transfer. Specifically, it integrates
two newly proposed attention forms: distributed and progressive attention.
Distributed attention assigns attention to key style representations that
depict the style distribution of local regions; Progressive attention pays
attention from coarse-grained regions to fine-grained key positions. The
resultant module, dubbed StyA2K, shows extraordinary performance in preserving
the semantic structure and rendering consistent style patterns. Qualitative and
quantitative comparisons with state-of-the-art methods demonstrate the superior
performance of our approach.
- Abstract(参考訳): 注意に基づく任意のスタイル転送研究は、鮮やかなローカルスタイルの詳細を合成する有望な性能を示している。
コンテンツ機能のそれぞれの位置は、スタイル機能のすべての位置と完全に一致しています。
しかしながら、すべての注意が歪んだスタイルパターンを生成する傾向があり、任意のスタイル転送の有効性と効率を制限した二次的な複雑さを持つ。
本稿では,コンテンツ特徴のそれぞれの位置を,スタイル特徴の安定したキー位置と一致させる,新たなオール・トゥ・キー・アテンション機構を提案する。
具体的には、分散とプログレッシブの2つの新しい注意形態を統合する。
分散アテンションは、局所のスタイル分布を表すキースタイルの表現に注意を向ける; プログレッシブアテンションは、粗粒の領域から細粒のキーポジションに注意を払う。
結果、StyA2Kと呼ばれるモジュールは、セマンティック構造を保持し、一貫性のあるスタイルパターンをレンダリングする際、素晴らしいパフォーマンスを示す。
最先端手法との質的,定量的な比較は,本手法の優れた性能を示す。
関連論文リスト
- UniVST: A Unified Framework for Training-free Localized Video Style Transfer [66.69471376934034]
ローカライズドビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングは不要で、ビデオ全体にわたってスタイルを転送する既存の方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - TSSAT: Two-Stage Statistics-Aware Transformation for Artistic Style
Transfer [22.16475032434281]
芸術的スタイルの転送は、対象の芸術的スタイルで与えられた写真をレンダリングすることで、新しい芸術的イメージを作成することを目的としている。
既存の手法では、グローバルな統計や局所的なパッチに基づいてスタイルを学習し、実際の描画過程の注意深い考慮を欠いている。
本稿では,コンテンツとスタイルの特徴のグローバルな統計を整合させて,まずグローバルなスタイル基盤を構築する2段階統計認識変換(TSSAT)モジュールを提案する。
コンテンツとスタイルの表現をさらに強化するために、注意に基づくコンテンツ損失とパッチベースのスタイル損失という2つの新しい損失を導入する。
論文 参考訳(メタデータ) (2023-09-12T07:02:13Z) - AesPA-Net: Aesthetic Pattern-Aware Style Transfer Networks [28.136463099603564]
我々は、注意機構の強化と、スタイルを整理するパターンのリズムの獲得に重点を置いている。
パターンの再現性に基づいて、AesPA-Net(Aesthetic Pattern-Aware Style Transfer Networks)を提案する。
さらに,注意機構が正確で意味のある意味的対応を学習することを奨励する,新たな自己監督タスクを提案する。
論文 参考訳(メタデータ) (2023-07-19T02:26:20Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Consistent Style Transfer [23.193302706359464]
近年,微粒化を実現するため,注意型任意のスタイル転送手法が提案されている。
この問題を軽減するために, プログレッシブ・アテンショナル・アライメント (PAMA) を提案する。
PAMAは,意味領域の不整合を回避しつつ,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-01-06T20:19:35Z) - AdaAttN: Revisit Attention Mechanism in Arbitrary Neural Style Transfer [44.08659730413871]
我々はアダプティブアテンション正規化(AdaAttN)という新しい注意・正規化モジュールを提案する。
具体的には、コンテンツとスタイルイメージの浅部と深部の両方から空間的注意スコアを学習する。
全てのスタイル特徴点の注目重み付き出力の分布として、スタイル特徴点に関するポイントごとの重み付き統計を算出する。
最後に、コンテンツ機能は正規化され、ポイントごとの重み付けされたスタイルの特徴統計と同じ局所的特徴統計を示す。
論文 参考訳(メタデータ) (2021-08-08T14:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。