論文の概要: Real-time Universal Style Transfer on High-resolution Images via
Zero-channel Pruning
- arxiv url: http://arxiv.org/abs/2006.09029v2
- Date: Tue, 23 Jun 2020 03:37:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:23:18.624867
- Title: Real-time Universal Style Transfer on High-resolution Images via
Zero-channel Pruning
- Title(参考訳): ゼロチャネルプルーニングによる高解像度画像のリアルタイムユニバーサルスタイル転送
- Authors: Jie An, Tao Li, Haozhi Huang, Li Shen, Xuan Wang, Yongyi Tang, Jinwen
Ma, Wei Liu, and Jiebo Luo
- Abstract要約: ArtNetは、高解像度画像上の普遍的、リアルタイム、および高品質なスタイル転送を同時に達成することができる。
ArtNetとS2を使用することで、我々の手法は最先端の手法よりも2.3~107.4倍高速である。
- 参考スコア(独自算出の注目度): 74.09149955786367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting effective deep features to represent content and style information
is the key to universal style transfer. Most existing algorithms use VGG19 as
the feature extractor, which incurs a high computational cost and impedes
real-time style transfer on high-resolution images. In this work, we propose a
lightweight alternative architecture - ArtNet, which is based on GoogLeNet, and
later pruned by a novel channel pruning method named Zero-channel Pruning
specially designed for style transfer approaches. Besides, we propose a
theoretically sound sandwich swap transform (S2) module to transfer deep
features, which can create a pleasing holistic appearance and good local
textures with an improved content preservation ability. By using ArtNet and S2,
our method is 2.3 to 107.4 times faster than state-of-the-art approaches. The
comprehensive experiments demonstrate that ArtNet can achieve universal,
real-time, and high-quality style transfer on high-resolution images
simultaneously, (68.03 FPS on 512 times 512 images).
- Abstract(参考訳): コンテンツやスタイル情報を表現するために効果的な深い特徴を抽出することは、ユニバーサルスタイル転送の鍵である。
既存のアルゴリズムの多くは、VGG19を特徴抽出器として使用しており、高い計算コストを発生させ、高解像度画像におけるリアルタイムなスタイル転送を妨げる。
本稿では,GoogLeNetをベースとした軽量な代替アーキテクチャであるArtNetを提案する。
また,深い特徴を伝達するための理論的に健全なサンドイッチスワップ変換(s2)モジュールを提案する。
ArtNetとS2を使用することで、我々の手法は最先端の手法よりも2.3~107.4倍高速である。
総合的な実験により、ArtNetは512倍の512倍の512倍で68.03 FPSの高解像度画像を同時に、普遍的でリアルタイムで高品質なスタイルで転送できることを示した。
関連論文リスト
- UniVST: A Unified Framework for Training-free Localized Video Style Transfer [66.69471376934034]
ローカライズドビデオスタイル転送のための統一フレームワークUniVSTを提案する。
トレーニングは不要で、ビデオ全体にわたってスタイルを転送する既存の方法に対して、明確なアドバンテージを提供する。
論文 参考訳(メタデータ) (2024-10-26T05:28:02Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Scaling Painting Style Transfer [10.059627473725508]
ニューラル・スタイル・トランスファー(Neural Style Transfer, NST)は、スタイル・イメージからコンテンツ・イメージへ、前例のないほどリッチなスタイル・トランスファーを生成する技術である。
本稿では,超高解像度(UHR)画像に対するグローバル最適化の解法を提案する。
このような高精細な絵画スタイルに対して,本手法が不整合品質のスタイル転送を実現することを示す。
論文 参考訳(メタデータ) (2022-12-27T12:03:38Z) - Artistic Arbitrary Style Transfer [1.1279808969568252]
任意スタイル転送(英: Arbitrary Style Transfer)とは、コンテンツ画像とスタイル画像という2つの画像から新しい画像を生成する技術である。
構造とスタイルコンポーネントのバランシングは、他の最先端のアルゴリズムが解決しようとしている大きな課題である。
本研究では、畳み込みニューラルネットワークを用いたディープラーニングアプローチを用いて、これらの問題を解決する。
論文 参考訳(メタデータ) (2022-12-21T21:34:00Z) - MicroAST: Towards Super-Fast Ultra-Resolution Arbitrary Style Transfer [17.3797025528892]
任意スタイル転送(AST)は、任意の芸術スタイルをコンテンツイメージに転送する。
既存のASTメソッドは、超高解像度で実行できないか、遅すぎる。
MicroASTと呼ばれる単純で軽量なモデルを学びます。
論文 参考訳(メタデータ) (2022-11-28T13:49:26Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - Spatially-Adaptive Pixelwise Networks for Fast Image Translation [57.359250882770525]
高速かつ効率的な画像-画像変換を目的とした新しいジェネレータアーキテクチャを提案する。
私たちはピクセルワイズネットワークを使用します。つまり、各ピクセルは他のピクセルとは独立して処理されます。
私たちのモデルは最先端のベースラインよりも最大18倍高速です。
論文 参考訳(メタデータ) (2020-12-05T10:02:03Z) - Arbitrary Video Style Transfer via Multi-Channel Correlation [84.75377967652753]
本稿では,マルチチャネル補正ネットワーク(MCCNet)を提案する。
MCCNetは、スタイルとコンテンツドメインの機能空間で直接動作する。
MCCが生成した出力は所望のスタイルパターンを含む特徴であり、鮮やかなスタイルのテクスチャでさらに画像にデコードできる。
論文 参考訳(メタデータ) (2020-09-17T01:30:46Z) - Joint Bilateral Learning for Real-time Universal Photorealistic Style
Transfer [18.455002563426262]
フォトリアリスティックなスタイル転送は、画像の芸術的スタイルをコンテンツターゲットに転送し、カメラで撮影可能な結果を生成するタスクである。
ディープニューラルネットワークに基づく最近のアプローチでは、印象的な結果が得られるが、現実的な解像度での実行には遅すぎるか、好ましくないアーティファクトがまだ含まれている。
高速かつ本質的にフォトリアリスティックな結果を生成するフォトリアリスティックなスタイル転送のための新しいエンド・ツー・エンドモデルを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。