論文の概要: Learning Dynamic Style Kernels for Artistic Style Transfer
- arxiv url: http://arxiv.org/abs/2304.00414v1
- Date: Sun, 2 Apr 2023 00:26:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 18:16:53.763995
- Title: Learning Dynamic Style Kernels for Artistic Style Transfer
- Title(参考訳): 芸術的スタイル伝達のための動的カーネルの学習
- Authors: Xu Wenju and Long Chengjiang and Nie Yongwei
- Abstract要約: 本研究では,空間適応型カーネルを画素ごとのスタイリングのために学習する新しい手法を提案する。
提案手法は最先端の手法より優れ,視覚的品質と効率の点で優れた性能を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Arbitrary style transfer has been demonstrated to be efficient in artistic
image generation. Previous methods either globally modulate the content feature
ignoring local details, or overly focus on the local structure details leading
to style leakage. In contrast to the literature, we propose a new scheme
\textit{``style kernel"} that learns {\em spatially adaptive kernels} for
per-pixel stylization, where the convolutional kernels are dynamically
generated from the global style-content aligned feature and then the learned
kernels are applied to modulate the content feature at each spatial position.
This new scheme allows flexible both global and local interactions between the
content and style features such that the wanted styles can be easily
transferred to the content image while at the same time the content structure
can be easily preserved. To further enhance the flexibility of our style
transfer method, we propose a Style Alignment Encoding (SAE) module
complemented with a Content-based Gating Modulation (CGM) module for learning
the dynamic style kernels in focusing regions. Extensive experiments strongly
demonstrate that our proposed method outperforms state-of-the-art methods and
exhibits superior performance in terms of visual quality and efficiency.
- Abstract(参考訳): 任意のスタイル転送は、芸術的な画像生成において効率的であることが示されている。
以前の方法は、ローカルの詳細を無視してコンテンツ機能をグローバルに変調するか、あるいはスタイルリークにつながるローカル構造の詳細に過剰に焦点を合わせるかのどちらかである。
論文とは対照的に,画素ごとのスタイリングのための空間適応型カーネルを学習する新たなスキームである「textit{`style kernel"」を提案し,大域的なスタイルの整列特徴から畳み込みカーネルを動的に生成し,学習したカーネルを用いて各空間位置におけるコンテンツ特徴を変調する。
この新しいスキームにより、コンテンツとスタイルの特徴の間のグローバルおよびローカルなインタラクションの両方が柔軟になり、望んでいたスタイルをコンテンツイメージに簡単に転送できると同時に、コンテンツ構造を容易に保存できる。
本稿では,スタイル伝達方式の柔軟性をさらに高めるために,動的スタイルカーネルを集中領域で学習するコンテンツベースゲーティング変調(cgm)モジュールを補完するスタイルアライメント符号化(sae)モジュールを提案する。
広汎な実験により,提案手法は最先端の手法より優れ,視覚的品質と効率の点で優れた性能を示した。
関連論文リスト
- ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - DPStyler: Dynamic PromptStyler for Source-Free Domain Generalization [43.67213274161226]
Source-Free Domain Generalization (SFDG) は、ソースドメインに頼ることなく、未確認のターゲットドメインに対して機能するモデルを開発することを目的としている。
SFDGにおける研究は、主に大規模視覚言語モデルの既存の知識に大きく依存している。
本稿では,動的PromptStyler(DPStyler)について紹介する。
論文 参考訳(メタデータ) (2024-03-25T12:31:01Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Diagonal Attention and Style-based GAN for Content-Style Disentanglement
in Image Generation and Translation [34.24876359759408]
階層的適応型対角的空間アテンション層を新規に提示し,スタイルから空間内容を階層的に操作する。
空間内容やスタイルを粗小から微妙に切り離す手法です。
我々のジェネレータはganインバージョンフレームワークに容易に統合でき、翻訳画像の内容やスタイルを柔軟に制御できます。
論文 参考訳(メタデータ) (2021-03-30T08:00:13Z) - Arbitrary Video Style Transfer via Multi-Channel Correlation [84.75377967652753]
本稿では,マルチチャネル補正ネットワーク(MCCNet)を提案する。
MCCNetは、スタイルとコンテンツドメインの機能空間で直接動作する。
MCCが生成した出力は所望のスタイルパターンを含む特徴であり、鮮やかなスタイルのテクスチャでさらに画像にデコードできる。
論文 参考訳(メタデータ) (2020-09-17T01:30:46Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z) - Manifold Alignment for Semantically Aligned Style Transfer [61.1274057338588]
我々は,同じ意味領域からの画像特徴が多様体を形成し,複数の意味領域を持つ画像が多次元分布に従うことを仮定する。
この仮定に基づき、スタイル伝達問題は2つの多次元分布の整列として定式化される。
提案したフレームワークは、出力とスタイルイメージの間の意味的に類似した領域を、類似したスタイルパターンを共有することができる。
論文 参考訳(メタデータ) (2020-05-21T16:52:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。