論文の概要: Scaling Painting Style Transfer
- arxiv url: http://arxiv.org/abs/2212.13459v1
- Date: Tue, 27 Dec 2022 12:03:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 16:05:17.557048
- Title: Scaling Painting Style Transfer
- Title(参考訳): 絵画スタイルのスケーリング
- Authors: Bruno Galerne, Lara Raad, Jos\'e Lezama, Jean-Michel Morel
- Abstract要約: ニューラル・スタイル・トランスファー(Neural style transfer)は、スタイル・イメージからコンテンツ・イメージへ、前例のないほどリッチなスタイル・トランスファーを生成する技術である。
本稿では,超高解像度画像に対するグローバル最適化の解法を提案する。
これは、VGGネットワークを介して各前方および後方の計算を空間的ローカライズすることで達成される。
- 参考スコア(独自算出の注目度): 7.01586005070678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural style transfer is a deep learning technique that produces an
unprecedentedly rich style transfer from a style image to a content image and
is particularly impressive when it comes to transferring style from a painting
to an image. It was originally achieved by solving an optimization problem to
match the global style statistics of the style image while preserving the local
geometric features of the content image. The two main drawbacks of this
original approach is that it is computationally expensive and that the
resolution of the output images is limited by high GPU memory requirements.
Many solutions have been proposed to both accelerate neural style transfer and
increase its resolution, but they all compromise the quality of the produced
images. Indeed, transferring the style of a painting is a complex task
involving features at different scales, from the color palette and
compositional style to the fine brushstrokes and texture of the canvas. This
paper provides a solution to solve the original global optimization for
ultra-high resolution images, enabling multiscale style transfer at
unprecedented image sizes. This is achieved by spatially localizing the
computation of each forward and backward passes through the VGG network.
Extensive qualitative and quantitative comparisons show that our method
produces a style transfer of unmatched quality for such high resolution
painting styles.
- Abstract(参考訳): ニューラル・スタイル・トランスファー(Neural style transfer)は、スタイル・イメージからコンテンツ・イメージへの、前例のないほどリッチなスタイル・トランスファーを生成する深層学習技術であり、絵画から画像へのスタイル転送に関しては特に印象的である。
コンテンツ画像の局所的な幾何学的特徴を保ちながら、スタイル画像のグローバルなスタイル統計に適合する最適化問題を解くことで、もともと達成された。
このアプローチの2つの大きな欠点は、計算コストが高く、出力画像の解像度が高いgpuメモリ要件によって制限されていることである。
ニューラルスタイルの転送を加速し、その解像度を向上する多くのソリューションが提案されているが、いずれも生成した画像の品質を損なう。
実際、絵画のスタイルを移すことは、カラーパレットや作曲スタイルから細かなブラシストローク、キャンバスのテクスチャに至るまで、様々なスケールの特徴を含む複雑な作業である。
本稿では,超高解像度画像に対する元来のグローバル最適化を解き,前例のない画像サイズでのマルチスケール画像転送を実現する。
これは、VGGネットワークを介して各前方および後方の計算を空間的に局所化する。
広範囲な質的・定量的比較により,このような高精細な絵画スタイルに対して,不一致品質のスタイル転移がみられた。
関連論文リスト
- Artistic Arbitrary Style Transfer [1.1279808969568252]
任意スタイル転送(英: Arbitrary Style Transfer)とは、コンテンツ画像とスタイル画像という2つの画像から新しい画像を生成する技術である。
構造とスタイルコンポーネントのバランシングは、他の最先端のアルゴリズムが解決しようとしている大きな課題である。
本研究では、畳み込みニューラルネットワークを用いたディープラーニングアプローチを用いて、これらの問題を解決する。
論文 参考訳(メタデータ) (2022-12-21T21:34:00Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - Block Shuffle: A Method for High-resolution Fast Style Transfer with
Limited Memory [4.511923587827301]
Fast Style Transferは、フィードフォワードニューラルネットワークを使って入力画像をレンダリングする一連のNeural Style Transferアルゴリズムである。
出力層の高次元のため、これらのネットワークは計算に多くのメモリを必要とする。
本稿では,メモリ消費の少ない1つのタスクを複数のサブタスクに変換し,メモリ消費の少ない複数のサブタスクに変換する,Emphblock shuffleという新しい画像合成手法を提案する。
論文 参考訳(メタデータ) (2020-08-09T10:33:21Z) - Real-time Universal Style Transfer on High-resolution Images via
Zero-channel Pruning [74.09149955786367]
ArtNetは、高解像度画像上の普遍的、リアルタイム、および高品質なスタイル転送を同時に達成することができる。
ArtNetとS2を使用することで、我々の手法は最先端の手法よりも2.3~107.4倍高速である。
論文 参考訳(メタデータ) (2020-06-16T09:50:14Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。