論文の概要: Block Shuffle: A Method for High-resolution Fast Style Transfer with
Limited Memory
- arxiv url: http://arxiv.org/abs/2008.03706v1
- Date: Sun, 9 Aug 2020 10:33:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 04:45:00.591686
- Title: Block Shuffle: A Method for High-resolution Fast Style Transfer with
Limited Memory
- Title(参考訳): ブロックシャッフル:メモリ制限のある高分解能高速スタイル転送方式
- Authors: Weifeng Ma, Zhe Chen, Caoting Ji
- Abstract要約: Fast Style Transferは、フィードフォワードニューラルネットワークを使って入力画像をレンダリングする一連のNeural Style Transferアルゴリズムである。
出力層の高次元のため、これらのネットワークは計算に多くのメモリを必要とする。
本稿では,メモリ消費の少ない1つのタスクを複数のサブタスクに変換し,メモリ消費の少ない複数のサブタスクに変換する,Emphblock shuffleという新しい画像合成手法を提案する。
- 参考スコア(独自算出の注目度): 4.511923587827301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fast Style Transfer is a series of Neural Style Transfer algorithms that use
feed-forward neural networks to render input images. Because of the high
dimension of the output layer, these networks require much memory for
computation. Therefore, for high-resolution images, most mobile devices and
personal computers cannot stylize them, which greatly limits the application
scenarios of Fast Style Transfer. At present, the two existing solutions are
purchasing more memory and using the feathering-based method, but the former
requires additional cost, and the latter has poor image quality. To solve this
problem, we propose a novel image synthesis method named \emph{block shuffle},
which converts a single task with high memory consumption to multiple subtasks
with low memory consumption. This method can act as a plug-in for Fast Style
Transfer without any modification to the network architecture. We use the most
popular Fast Style Transfer repository on GitHub as the baseline. Experiments
show that the quality of high-resolution images generated by our method is
better than that of the feathering-based method. Although our method is an
order of magnitude slower than the baseline, it can stylize high-resolution
images with limited memory, which is impossible with the baseline. The code and
models will be made available on \url{https://github.com/czczup/block-shuffle}.
- Abstract(参考訳): Fast Style Transferは、フィードフォワードニューラルネットワークを使って入力画像をレンダリングする一連のNeural Style Transferアルゴリズムである。
出力層の高次元のため、これらのネットワークは計算に多くのメモリを必要とする。
したがって、高解像度画像の場合、ほとんどのモバイルデバイスやパーソナルコンピュータはそれらをスタイリングできないため、Fast Style Transferのアプリケーションシナリオは大幅に制限される。
現在、既存の2つのソリューションは、より多くのメモリを購入し、羽毛ベースの方法を使用しているが、前者は追加コストが必要であり、後者は画質が劣っている。
そこで本研究では,高メモリ消費の単一タスクを低メモリ消費の複数のサブタスクに変換する新しい画像合成手法である「emph{block shuffle}」を提案する。
このメソッドは、ネットワークアーキテクチャを変更することなく、高速スタイル転送のプラグインとして機能することができる。
私たちはGitHubで最も人気のあるFast Style Transferリポジトリをベースラインとして使用しています。
実験により,本手法による高分解能画像の品質がフェザリング法より優れていることを示した。
本手法はベースラインよりも桁違いに遅いが,メモリに制限のある高分解能画像のスタイリングが可能であり,ベースラインでは不可能である。
コードとモデルは \url{https://github.com/czczup/block-shuffle} で利用可能になる。
関連論文リスト
- PixelShuffler: A Simple Image Translation Through Pixel Rearrangement [0.0]
スタイル転送は画像から画像への変換の応用として広く研究されており、ある画像の内容を他の画像のスタイルと組み合わせた画像の合成が目的である。
既存の最先端の手法は、しばしば高品質なスタイル転送を実現するために拡散モデルや言語モデルを含む複雑なニューラルネットワークに依存している。
本稿では,画像から画像への変換問題に対処する新たなピクセルシャッフル手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T22:08:41Z) - Hyper-VolTran: Fast and Generalizable One-Shot Image to 3D Object
Structure via HyperNetworks [53.67497327319569]
画像から3Dまでを1つの視点から解く新しいニューラルレンダリング手法を提案する。
提案手法では, 符号付き距離関数を表面表現として使用し, 幾何エンコードボリュームとハイパーネットワークスによる一般化可能な事前処理を取り入れた。
本実験は,一貫した結果と高速な生成による提案手法の利点を示す。
論文 参考訳(メタデータ) (2023-12-24T08:42:37Z) - Cache Me if You Can: Accelerating Diffusion Models through Block Caching [67.54820800003375]
画像間の大規模なネットワークは、ランダムノイズから画像を反復的に洗練するために、何度も適用されなければならない。
ネットワーク内のレイヤの振る舞いを調査し,1) レイヤの出力が経時的にスムーズに変化すること,2) レイヤが異なる変更パターンを示すこと,3) ステップからステップへの変更が非常に小さいこと,などが分かる。
本稿では,各ブロックの時間経過変化に基づいて,キャッシュスケジュールを自動的に決定する手法を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:51:38Z) - CoordFill: Efficient High-Resolution Image Inpainting via Parameterized
Coordinate Querying [52.91778151771145]
本稿では,近年の連続的暗黙表現の発達により,その限界を初めて破ろうとする。
実験の結果,提案手法はGTX 2080 Ti GPUを用いて2048$times$2048の画像をリアルタイムに処理できることがわかった。
論文 参考訳(メタデータ) (2023-03-15T11:13:51Z) - Scaling Painting Style Transfer [10.059627473725508]
ニューラル・スタイル・トランスファー(Neural Style Transfer, NST)は、スタイル・イメージからコンテンツ・イメージへ、前例のないほどリッチなスタイル・トランスファーを生成する技術である。
本稿では,超高解像度(UHR)画像に対するグローバル最適化の解法を提案する。
このような高精細な絵画スタイルに対して,本手法が不整合品質のスタイル転送を実現することを示す。
論文 参考訳(メタデータ) (2022-12-27T12:03:38Z) - Saliency Constrained Arbitrary Image Style Transfer using SIFT and DCNN [22.57205921266602]
一般的なニューラルスタイルの転送方法を使用する場合、スタイル画像のテクスチャや色は通常、コンテンツ画像に不完全に転送される。
本稿では,その効果を低減・回避するための新しいサリエンシ制約手法を提案する。
実験により、ソースイメージの正当性マップは正しいマッチングを見つけ出し、アーティファクトを避けるのに役立つことが示された。
論文 参考訳(メタデータ) (2022-01-14T09:00:55Z) - Drafting and Revision: Laplacian Pyramid Network for Fast High-Quality
Artistic Style Transfer [115.13853805292679]
アートスタイルの転送は、サンプルイメージからコンテンツイメージへのスタイルの移行を目的としている。
図案作成と細部改訂の共通画法に触発されて,ラプラシアンピラミッドネットワーク(LapStyle)という新しいフィードフォワード方式を導入する。
本手法は, 定型的パターンを適切に伝達した高品質なスタイリズド画像をリアルタイムで合成する。
論文 参考訳(メタデータ) (2021-04-12T11:53:53Z) - Towards Ultra-Resolution Neural Style Transfer via Thumbnail Instance
Normalization [42.84367334160332]
任意の高解像度画像を柔軟に処理するために、非常にシンプルなウルトラリゾリューションスタイル転送フレームワーク「URST」を紹介します。
既存の最先端手法のほとんどは、超高解像度画像を処理する際のメモリコストとストロークサイズが小さいため、不足する。
論文 参考訳(メタデータ) (2021-03-22T12:54:01Z) - Spatially-Adaptive Pixelwise Networks for Fast Image Translation [57.359250882770525]
高速かつ効率的な画像-画像変換を目的とした新しいジェネレータアーキテクチャを提案する。
私たちはピクセルワイズネットワークを使用します。つまり、各ピクセルは他のピクセルとは独立して処理されます。
私たちのモデルは最先端のベースラインよりも最大18倍高速です。
論文 参考訳(メタデータ) (2020-12-05T10:02:03Z) - Real-time Universal Style Transfer on High-resolution Images via
Zero-channel Pruning [74.09149955786367]
ArtNetは、高解像度画像上の普遍的、リアルタイム、および高品質なスタイル転送を同時に達成することができる。
ArtNetとS2を使用することで、我々の手法は最先端の手法よりも2.3~107.4倍高速である。
論文 参考訳(メタデータ) (2020-06-16T09:50:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。