論文の概要: Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer
- arxiv url: http://arxiv.org/abs/2104.05376v1
- Date: Mon, 12 Apr 2021 11:53:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 13:54:35.368191
- Title: Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer
- Title(参考訳): ドラフトとリビジョン:ラプラシアンピラミッドネットワークによる高速芸術的スタイル移行
- Authors: Tianwei Lin, Zhuoqi Ma, Fu Li, Dongliang He, Xin Li, Errui Ding,
Nannan Wang, Jie Li, Xinbo Gao
- Abstract要約: アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
- 参考スコア(独自算出の注目度): 115.13853805292679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artistic style transfer aims at migrating the style from an example image to
a content image. Currently, optimization-based methods have achieved great
stylization quality, but expensive time cost restricts their practical
applications. Meanwhile, feed-forward methods still fail to synthesize complex
style, especially when holistic global and local patterns exist. Inspired by
the common painting process of drawing a draft and revising the details, we
introduce a novel feed-forward method named Laplacian Pyramid Network
(LapStyle). LapStyle first transfers global style patterns in low-resolution
via a Drafting Network. It then revises the local details in high-resolution
via a Revision Network, which hallucinates a residual image according to the
draft and the image textures extracted by Laplacian filtering. Higher
resolution details can be easily generated by stacking Revision Networks with
multiple Laplacian pyramid levels. The final stylized image is obtained by
aggregating outputs of all pyramid levels. %We also introduce a patch
discriminator to better learn local patterns adversarially. Experiments
demonstrate that our method can synthesize high quality stylized images in real
time, where holistic style patterns are properly transferred.
- Abstract(参考訳): アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
現在、最適化に基づく手法は、優れたスタイリング品質を達成しているが、高価な時間コストは実用的応用を制限する。
一方、フィードフォワード法は、特に全体的グローバルパターンと局所パターンが存在する場合、複雑なスタイルを合成できない。
草案を描き、細部を改訂する一般的な絵画のプロセスに触発され、ラプラシアピラミッドネットワーク(lapstyle)と呼ばれる新しいフィードフォワード方式を導入する。
LapStyleは、ドラフトネットワークを介して、まずグローバルスタイルのパターンを低解像度で転送する。
次に,ラプラシアンフィルタリングにより抽出された画像テクスチャと草案に従って残像を幻示するリビジョンネットワークを介して,局所的な詳細を高解像度で修正する。
より高解像度な詳細は、複数のラプラシアピラミッドレベルでRevision Networksを積み重ねることで容易に生成できる。
最終スタイリング画像は、すべてのピラミッドレベルの出力を集約することで得られる。
% ローカルパターンを逆向きに学習するパッチ判別器も導入しました。
実験により,完全スタイルパターンを適切に転送した高品質なスタイライゼーション画像をリアルタイムに合成できることが実証された。
関連論文リスト
- Puff-Net: Efficient Style Transfer with Pure Content and Style Feature Fusion Network [32.12413686394824]
スタイル転送は、オリジナルの構造を維持しながら、スタイルイメージの芸術的な特徴で画像をレンダリングすることを目的としている。
CNNベースの手法では、入力画像間の大域的情報と長距離依存関係を扱うことは困難である。
我々はPuff-Netと呼ばれる新しいネットワーク、すなわち純粋コンテンツとスタイルの機能融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T07:41:07Z) - Locally Stylized Neural Radiance Fields [30.037649804991315]
局所的なスタイル伝達に基づくニューラルレイディアンスフィールド(NeRF)のスタイリングフレームワークを提案する。
特に、ハッシュグリッド符号化を用いて外観や幾何学的要素の埋め込みを学習する。
提案手法は, 新規なビュー合成により, 可視なスタイリゼーション結果が得られることを示す。
論文 参考訳(メタデータ) (2023-09-19T15:08:10Z) - Scaling Painting Style Transfer [10.059627473725508]
ニューラル・スタイル・トランスファー(Neural Style Transfer, NST)は、スタイル・イメージからコンテンツ・イメージへ、前例のないほどリッチなスタイル・トランスファーを生成する技術である。
本稿では,超高解像度(UHR)画像に対するグローバル最適化の解法を提案する。
このような高精細な絵画スタイルに対して,本手法が不整合品質のスタイル転送を実現することを示す。
論文 参考訳(メタデータ) (2022-12-27T12:03:38Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - ARF: Artistic Radiance Fields [63.79314417413371]
本稿では,任意のスタイル画像の芸術的特徴を3Dシーンに転送する方法を提案する。
点雲やメッシュ上で3次元スタイリングを行う従来の手法は、幾何的再構成誤差に敏感である。
より頑健なラディアンス場表現の体系化を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:55:31Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Real-time Universal Style Transfer on High-resolution Images via
Zero-channel Pruning [74.09149955786367]
ArtNetは、高解像度画像上の普遍的、リアルタイム、および高品質なスタイル転送を同時に達成することができる。
ArtNetとS2を使用することで、我々の手法は最先端の手法よりも2.3~107.4倍高速である。
論文 参考訳(メタデータ) (2020-06-16T09:50:14Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。