論文の概要: TSSAT: Two-Stage Statistics-Aware Transformation for Artistic Style
Transfer
- arxiv url: http://arxiv.org/abs/2309.06004v1
- Date: Tue, 12 Sep 2023 07:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:10:41.368704
- Title: TSSAT: Two-Stage Statistics-Aware Transformation for Artistic Style
Transfer
- Title(参考訳): TSSAT: 2段階統計-アートスタイルの変換
- Authors: Haibo Chen, Lei Zhao, Jun Li, and Jian Yang
- Abstract要約: 芸術的スタイルの転送は、対象の芸術的スタイルで与えられた写真をレンダリングすることで、新しい芸術的イメージを作成することを目的としている。
既存の手法では、グローバルな統計や局所的なパッチに基づいてスタイルを学習し、実際の描画過程の注意深い考慮を欠いている。
本稿では,コンテンツとスタイルの特徴のグローバルな統計を整合させて,まずグローバルなスタイル基盤を構築する2段階統計認識変換(TSSAT)モジュールを提案する。
コンテンツとスタイルの表現をさらに強化するために、注意に基づくコンテンツ損失とパッチベースのスタイル損失という2つの新しい損失を導入する。
- 参考スコア(独自算出の注目度): 22.16475032434281
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artistic style transfer aims to create new artistic images by rendering a
given photograph with the target artistic style. Existing methods learn styles
simply based on global statistics or local patches, lacking careful
consideration of the drawing process in practice. Consequently, the stylization
results either fail to capture abundant and diversified local style patterns,
or contain undesired semantic information of the style image and deviate from
the global style distribution. To address this issue, we imitate the drawing
process of humans and propose a Two-Stage Statistics-Aware Transformation
(TSSAT) module, which first builds the global style foundation by aligning the
global statistics of content and style features and then further enriches local
style details by swapping the local statistics (instead of local features) in a
patch-wise manner, significantly improving the stylization effects. Moreover,
to further enhance both content and style representations, we introduce two
novel losses: an attention-based content loss and a patch-based style loss,
where the former enables better content preservation by enforcing the semantic
relation in the content image to be retained during stylization, and the latter
focuses on increasing the local style similarity between the style and stylized
images. Extensive qualitative and quantitative experiments verify the
effectiveness of our method.
- Abstract(参考訳): 芸術的スタイル転送は、対象の芸術的スタイルで所定の写真をレンダリングすることで、新しい芸術的イメージを作成することを目的としている。
既存の手法は、単にグローバル統計や局所パッチに基づいてスタイルを学習し、実際の描画過程を慎重に考慮していない。
その結果、スタイライゼーションの結果は、豊富かつ多様化したローカルスタイルパターンを捉えられなかったり、スタイルイメージの望ましくない意味情報を含んでいたり、グローバルスタイル分布から逸脱したりする。
この問題を解決するために,我々は,人間の描画プロセスを模倣し,まずコンテンツとスタイルの特徴のグローバル統計を整合させ,次に局所統計(局所特徴ではなく)をパッチ的に置き換え,スタイライゼーション効果を大幅に改善する,グローバルスタイル基盤を構築する2段階統計認識変換(tssat)モジュールを提案する。
また、コンテンツとスタイル表現の両方をさらに強化するため、スタイル化時に保持するコンテンツ画像の意味関係を強制することにより、注意に基づくコンテンツロスとパッチベースのスタイルロスの2つの新たな損失を導入するとともに、スタイルとスタイル化された画像とのローカルスタイル類似性の向上に重点を置いている。
広範囲な質的定量的実験を行い,本手法の有効性を検証した。
関連論文リスト
- Multiscale style transfer based on a Laplacian pyramid for traditional Chinese painting [6.248530911794617]
そこで本研究では,ラプラシアンピラミッドの分解と再構築に基づく,新しいマルチスケール・トランスファー手法を提案する。
第1段階では、スタイル転送ベースネットワークを採用することにより、全体的なパターンを低解像度で転送する。
内容とスタイルの詳細は、ディテールエンハンスメントネットワークにより、より高解像度で徐々に強化される。
論文 参考訳(メタデータ) (2025-02-07T01:04:49Z) - Z-STAR+: A Zero-shot Style Transfer Method via Adjusting Style Distribution [24.88532732093652]
スタイル転送は重要な課題であり、主に適切なスタイル表現を特定することに焦点を当てている。
既存の手法とは対照的に,バニラ拡散モデルにおける潜在的特徴が自然的スタイルや内容分布を本質的に含んでいることが判明した。
提案手法では,コンテンツ参照とスタイル参照を遅延空間で表現するために,デュアル・デノナイズ・パスを採用し,その後,スタイル遅延符号を用いたコンテントイメージ・デノナイズ・プロセスの導出を行う。
論文 参考訳(メタデータ) (2024-11-28T15:56:17Z) - InfoStyler: Disentanglement Information Bottleneck for Artistic Style
Transfer [22.29381866838179]
アートスタイルの転送は、アートワークのスタイルを、オリジナル全体のコンテンツを維持しながら写真に転送することを目的としている。
本稿では,コンテンツとスタイル表現の両面において,最小限の情報を取得するために,InfoStylerという新しい情報分離手法を提案する。
論文 参考訳(メタデータ) (2023-07-30T13:38:56Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Arbitrary Style Transfer via Multi-Adaptation Network [109.6765099732799]
所望のスタイル転送は、内容画像と参照されたスタイル絵が与えられた場合、そのスタイル絵の色調と鮮やかなストロークパターンで内容画像を描画する。
新たな不整合損失関数により,本ネットワークは,様々な入力画像に適応する主文パターンと正確なコンテンツ構造を抽出できる。
論文 参考訳(メタデータ) (2020-05-27T08:00:22Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。