論文の概要: All-to-key Attention for Arbitrary Style Transfer
- arxiv url: http://arxiv.org/abs/2212.04105v1
- Date: Thu, 8 Dec 2022 06:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:43:45.687246
- Title: All-to-key Attention for Arbitrary Style Transfer
- Title(参考訳): 任意のスタイル転送に対するオール・トゥ・キーの注意
- Authors: Mingrui Zhu, Xiao He, Nannan Wang, Xiaoyu Wang, Xinbo Gao
- Abstract要約: 注意に基づく任意のスタイル伝達の研究は、鮮やかなローカルスタイルの詳細で有望なパフォーマンスを示している。
オール・ツー・オールの注意は歪んだスタイルパターンを生み出し、二次的な複雑さを持つ傾向がある。
コンテンツ特徴のそれぞれの位置を、スタイル特徴のキー位置とマッチングする、新しいオール・ツー・キーアテンション機構を提案する。
- 参考スコア(独自算出の注目度): 98.83954812536521
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attention-based arbitrary style transfer studies have shown promising
performance in synthesizing vivid local style details. They typically use the
all-to-all attention mechanism: each position of content features is fully
matched to all positions of style features. However, all-to-all attention tends
to generate distorted style patterns and has quadratic complexity. It virtually
limits both the effectiveness and efficiency of arbitrary style transfer. In
this paper, we rethink what kind of attention mechanism is more appropriate for
arbitrary style transfer. Our answer is a novel all-to-key attention mechanism:
each position of content features is matched to key positions of style
features. Specifically, it integrates two newly proposed attention forms:
distributed and progressive attention. Distributed attention assigns attention
to multiple key positions; Progressive attention pays attention from coarse to
fine. All-to-key attention promotes the matching of diverse and reasonable
style patterns and has linear complexity. The resultant module, dubbed StyA2K,
has fine properties in rendering reasonable style textures and maintaining
consistent local structure. Qualitative and quantitative experiments
demonstrate that our method achieves superior results than state-of-the-art
approaches.
- Abstract(参考訳): 注意に基づく任意のスタイル転送研究は、鮮やかなローカルスタイルの詳細を合成する有望な性能を示している。
コンテンツ特徴のそれぞれの位置は、スタイル特徴のすべての位置と完全に一致している。
しかし、すべての注意が歪んだスタイルパターンを生み出し、二次的な複雑さを持つ傾向にある。
任意のスタイル転送の有効性と効率を事実上制限します。
本稿では,任意のスタイル転送にどのような注意機構が適しているかを再考する。
コンテンツ特徴のそれぞれの位置は、スタイル特徴の重要な位置と一致します。
具体的には、分散とプログレッシブの2つの新しい注意形態を統合する。
分散注意は複数の重要なポジションに注意を割り当て、進行注意は粗悪から罰金に注意を払う。
All-to-key attentionは多様で合理的なスタイルパターンのマッチングを促進し、線形複雑性を持つ。
結果、StyA2Kと呼ばれるモジュールは、合理的なスタイルのテクスチャをレンダリングし、一貫性のあるローカル構造を維持するのに優れた特性を持っている。
定性的および定量的実験により,本手法は最先端手法よりも優れた結果が得られることが示された。
関連論文リスト
- UniVST: A Unified Framework for Training-free Localized Video Style Transfer [66.69471376934034]
ローカライズドビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングは不要で、ビデオ全体にわたってスタイルを転送する既存の方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - TSSAT: Two-Stage Statistics-Aware Transformation for Artistic Style
Transfer [22.16475032434281]
芸術的スタイルの転送は、対象の芸術的スタイルで与えられた写真をレンダリングすることで、新しい芸術的イメージを作成することを目的としている。
既存の手法では、グローバルな統計や局所的なパッチに基づいてスタイルを学習し、実際の描画過程の注意深い考慮を欠いている。
本稿では,コンテンツとスタイルの特徴のグローバルな統計を整合させて,まずグローバルなスタイル基盤を構築する2段階統計認識変換(TSSAT)モジュールを提案する。
コンテンツとスタイルの表現をさらに強化するために、注意に基づくコンテンツ損失とパッチベースのスタイル損失という2つの新しい損失を導入する。
論文 参考訳(メタデータ) (2023-09-12T07:02:13Z) - AesPA-Net: Aesthetic Pattern-Aware Style Transfer Networks [28.136463099603564]
我々は、注意機構の強化と、スタイルを整理するパターンのリズムの獲得に重点を置いている。
パターンの再現性に基づいて、AesPA-Net(Aesthetic Pattern-Aware Style Transfer Networks)を提案する。
さらに,注意機構が正確で意味のある意味的対応を学習することを奨励する,新たな自己監督タスクを提案する。
論文 参考訳(メタデータ) (2023-07-19T02:26:20Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Consistent Style Transfer [23.193302706359464]
近年,微粒化を実現するため,注意型任意のスタイル転送手法が提案されている。
この問題を軽減するために, プログレッシブ・アテンショナル・アライメント (PAMA) を提案する。
PAMAは,意味領域の不整合を回避しつつ,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-01-06T20:19:35Z) - AdaAttN: Revisit Attention Mechanism in Arbitrary Neural Style Transfer [44.08659730413871]
我々はアダプティブアテンション正規化(AdaAttN)という新しい注意・正規化モジュールを提案する。
具体的には、コンテンツとスタイルイメージの浅部と深部の両方から空間的注意スコアを学習する。
全てのスタイル特徴点の注目重み付き出力の分布として、スタイル特徴点に関するポイントごとの重み付き統計を算出する。
最後に、コンテンツ機能は正規化され、ポイントごとの重み付けされたスタイルの特徴統計と同じ局所的特徴統計を示す。
論文 参考訳(メタデータ) (2021-08-08T14:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。