論文の概要: Multiscale style transfer based on a Laplacian pyramid for traditional Chinese painting
- arxiv url: http://arxiv.org/abs/2502.04597v1
- Date: Fri, 07 Feb 2025 01:04:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:56:37.210021
- Title: Multiscale style transfer based on a Laplacian pyramid for traditional Chinese painting
- Title(参考訳): 伝統的な中国絵画のためのラプラシアンピラミッドに基づくマルチスケール・スタイル・トランスファー
- Authors: Kunxiao Liu, Guowu Yuan, Hongyu Liu, Hao Wu,
- Abstract要約: そこで本研究では,ラプラシアンピラミッドの分解と再構築に基づく,新しいマルチスケール・トランスファー手法を提案する。
第1段階では、スタイル転送ベースネットワークを採用することにより、全体的なパターンを低解像度で転送する。
内容とスタイルの詳細は、ディテールエンハンスメントネットワークにより、より高解像度で徐々に強化される。
- 参考スコア(独自算出の注目度): 6.248530911794617
- License:
- Abstract: Style transfer is adopted to synthesize appealing stylized images that preserve the structure of a content image but carry the pattern of a style image. Many recently proposed style transfer methods use only western oil paintings as style images to achieve image stylization. As a result, unnatural messy artistic effects are produced in stylized images when using these methods to directly transfer the patterns of traditional Chinese paintings, which are composed of plain colors and abstract objects. Moreover, most of them work only at the original image scale and thus ignore multiscale image information during training. In this paper, we present a novel effective multiscale style transfer method based on Laplacian pyramid decomposition and reconstruction, which can transfer unique patterns of Chinese paintings by learning different image features at different scales. In the first stage, the holistic patterns are transferred at low resolution by adopting a Style Transfer Base Network. Then, the details of the content and style are gradually enhanced at higher resolutions by a Detail Enhancement Network with an edge information selection (EIS) module in the second stage. The effectiveness of our method is demonstrated through the generation of appealing high-quality stylization results and a comparison with some state-of-the-art style transfer methods. Datasets and codes are available at https://github.com/toby-katakuri/LP_StyleTransferNet.
- Abstract(参考訳): スタイル転送は、コンテンツ画像の構造を保ちながらスタイル画像のパターンを運ぶ、魅力的なスタイル化された画像を合成するために採用される。
最近提案された多くのスタイル転送手法は、西部の油絵のみをスタイル画像として用いて、画像のスタイリゼーションを実現している。
その結果、これらの手法を用いて、平易な色と抽象的な物体からなる伝統的な中国絵画のパターンを直接伝達する際に、非自然的な乱雑な芸術効果が、様式化された画像で生み出される。
さらに、これらの多くはオリジナルの画像スケールでのみ動作するため、トレーニング中のマルチスケール画像情報は無視される。
本稿では,ラプラシアのピラミッドの分解と復元を基礎として,異なる画像特徴を異なるスケールで学習することで,中国絵画のユニークなパターンを伝達できる,新しいマルチスケールトランスファー手法を提案する。
第1段階では、スタイル転送ベースネットワークを採用することにより、全体的なパターンを低解像度で転送する。
そして、2段目のエッジ情報選択(EIS)モジュールを備えたディーテール拡張ネットワークにより、より高解像度でコンテンツとスタイルの詳細を徐々に改善する。
提案手法の有効性は, 高品質なスタイル化結果の生成と, 最先端のスタイル変換手法との比較によって実証される。
データセットとコードはhttps://github.com/toby-katakuri/LP_StyleTransferNetで公開されている。
関連論文リスト
- Coarse-to-Fine Structure-Aware Artistic Style Transfer [3.5485551392251042]
アーティスティック・スタイル・トランスファーは、スタイル・イメージとコンテンツ・イメージを使用して、スタイル・イメージと同じ芸術的表現を保持するターゲット・イメージを合成することを目的としている。
最近提案された多くのスタイル転送手法には共通の問題がある。つまり、スタイル画像のテクスチャと色をコンテンツ画像のグローバルな構造に単純に転送する。
本稿では,ローカルなスタイル構造をローカルなコンテンツ構造に融合させながら,スタイルパターンの転送に有効な方法を提案する。
論文 参考訳(メタデータ) (2025-02-08T00:04:12Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Pastiche Master: Exemplar-Based High-Resolution Portrait Style Transfer [103.54337984566877]
StyleGANの最近の研究は、限られたデータを用いたトランスファーラーニングによる芸術的肖像画生成に高い性能を示している。
本稿では,オリジナルフェイスドメインと拡張アートポートレートドメインの両スタイルを柔軟に制御できる新しいDualStyleGANを提案する。
高品質なポートレートスタイル転送とフレキシブルなスタイル制御において、DualStyleGANが最先端の手法よりも優れていることを示す実験である。
論文 参考訳(メタデータ) (2022-03-24T17:57:11Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。