論文の概要: PhotoWCT$^2$: Compact Autoencoder for Photorealistic Style Transfer
Resulting from Blockwise Training and Skip Connections of High-Frequency
Residuals
- arxiv url: http://arxiv.org/abs/2110.11995v1
- Date: Fri, 22 Oct 2021 18:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 17:16:16.896244
- Title: PhotoWCT$^2$: Compact Autoencoder for Photorealistic Style Transfer
Resulting from Blockwise Training and Skip Connections of High-Frequency
Residuals
- Title(参考訳): PhotoWCT$^2$:高周波数残差のブロックワイドトレーニングとスキップ接続によるフォトリアリスティックスタイル転送のためのコンパクトオートエンコーダ
- Authors: Tai-Yin Chiu, Danna Gurari
- Abstract要約: フォトリアリスティック・スタイル・トランスファー(英: Photorealistic style transfer)とは、画像が他の画像のスタイルに合うように修正され、結果が本物の写真に見えることを保証するための画像編集タスクである。
既存のモデルの制限は、多くのパラメータを持つため、画像の解像度が大きくなるのを防ぎ、実行時間が遅くなることである。
我々は、最先端のスタイル化強度とフォトリアリズムを保った、よりコンパクトなモデルの設計を可能にする2つのメカニズムを導入する。
- 参考スコア(独自算出の注目度): 35.64625206673256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photorealistic style transfer is an image editing task with the goal to
modify an image to match the style of another image while ensuring the result
looks like a real photograph. A limitation of existing models is that they have
many parameters, which in turn prevents their use for larger image resolutions
and leads to slower run-times. We introduce two mechanisms that enable our
design of a more compact model that we call PhotoWCT$^2$, which preserves
state-of-art stylization strength and photorealism. First, we introduce
blockwise training to perform coarse-to-fine feature transformations that
enable state-of-art stylization strength in a single autoencoder in place of
the inefficient cascade of four autoencoders used in PhotoWCT. Second, we
introduce skip connections of high-frequency residuals in order to preserve
image quality when applying the sequential coarse-to-fine feature
transformations. Our PhotoWCT$^2$ model requires fewer parameters (e.g., 30.3\%
fewer) while supporting higher resolution images (e.g., 4K) and achieving
faster stylization than existing models.
- Abstract(参考訳): photorealistic style transfer(フォトリアリスティックスタイル転送)は、画像を他の画像のスタイルにマッチさせるように修正し、その結果を本物の写真のように見せることを目的とした画像編集タスクである。
既存のモデルの制限は、多くのパラメータを持つため、画像の解像度が大きくなるのを防ぎ、実行時間が遅くなることである。
photowct$^2$と呼ばれるよりコンパクトなモデルの設計を可能にする2つのメカニズムを導入し、最先端のスタイライゼーションとフォトリアリズムを保ちます。
まず,PhotoWCTで使用する4つのオートエンコーダの非効率カスケードに代えて,単一のオートエンコーダにおける最先端のスタイル化強度を実現するために,粗大な特徴変換を行うブロックワイズトレーニングを導入する。
第2に,連続的な粗視から細かな特徴変換を適用する場合の画質を維持するため,高周波残差のスキップ接続を導入する。
photowct$^2$モデルは、より解像度の高い画像(例えば4k)をサポートし、既存のモデルよりも高速なスタイライゼーションを実現しながら、より少ないパラメータ(例えば、30.3\%以下)を必要とする。
関連論文リスト
- Translatotron-V(ison): An End-to-End Model for In-Image Machine Translation [81.45400849638347]
In-image Machine Translation (IIMT) は、ソース言語のテキストを含む画像をターゲット言語の翻訳を含む画像に変換することを目的としている。
本稿では,4つのモジュールからなるエンドツーエンドIIMTモデルを提案する。
本モデルでは,70.9%のパラメータしか持たないカスケードモデルと比較して競争性能が向上し,画素レベルのエンド・ツー・エンドIIMTモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-03T08:15:39Z) - Improving Text-to-Image Consistency via Automatic Prompt Optimization [26.2587505265501]
我々は,T2Iモデルの迅速な画像整合性を改善するため,T2I最適化・プロンプトフレームワークであるOPT2Iを導入する。
当社のフレームワークは,ユーザのプロンプトから始まり,一貫性スコアの最大化を目標として,更新プロンプトを反復的に生成する。
論文 参考訳(メタデータ) (2024-03-26T15:42:01Z) - Direct Consistency Optimization for Compositional Text-to-Image
Personalization [73.94505688626651]
テキスト・ツー・イメージ(T2I)拡散モデルは、いくつかの個人画像に微調整された場合、高い一貫性で視覚を生成することができる。
本稿では,参照画像との整合性を最大化しつつ,事前学習したモデルからの偏差を補償することにより,T2Iモデルを微調整する。
論文 参考訳(メタデータ) (2024-02-19T09:52:41Z) - Controllable Image Enhancement [66.18525728881711]
いくつかのパラメータを制御して、複数のスタイルで高品質な画像を生成できる半自動画像強調アルゴリズムを提案する。
エンコーダ・デコーダフレームワークは、リタッチスキルを潜在コードにエンコードし、イメージ信号処理機能のパラメータにデコードする。
論文 参考訳(メタデータ) (2022-06-16T23:54:53Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Joint Bilateral Learning for Real-time Universal Photorealistic Style
Transfer [18.455002563426262]
フォトリアリスティックなスタイル転送は、画像の芸術的スタイルをコンテンツターゲットに転送し、カメラで撮影可能な結果を生成するタスクである。
ディープニューラルネットワークに基づく最近のアプローチでは、印象的な結果が得られるが、現実的な解像度での実行には遅すぎるか、好ましくないアーティファクトがまだ含まれている。
高速かつ本質的にフォトリアリスティックな結果を生成するフォトリアリスティックなスタイル転送のための新しいエンド・ツー・エンドモデルを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。