論文の概要: Joint Bilateral Learning for Real-time Universal Photorealistic Style
Transfer
- arxiv url: http://arxiv.org/abs/2004.10955v2
- Date: Mon, 27 Apr 2020 13:02:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:48:06.727544
- Title: Joint Bilateral Learning for Real-time Universal Photorealistic Style
Transfer
- Title(参考訳): 実時間ユニバーサルフォトリアリスティックスタイル転送のための共同バイラテラル学習
- Authors: Xide Xia, Meng Zhang, Tianfan Xue, Zheng Sun, Hui Fang, Brian Kulis,
and Jiawen Chen
- Abstract要約: フォトリアリスティックなスタイル転送は、画像の芸術的スタイルをコンテンツターゲットに転送し、カメラで撮影可能な結果を生成するタスクである。
ディープニューラルネットワークに基づく最近のアプローチでは、印象的な結果が得られるが、現実的な解像度での実行には遅すぎるか、好ましくないアーティファクトがまだ含まれている。
高速かつ本質的にフォトリアリスティックな結果を生成するフォトリアリスティックなスタイル転送のための新しいエンド・ツー・エンドモデルを提案する。
- 参考スコア(独自算出の注目度): 18.455002563426262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photorealistic style transfer is the task of transferring the artistic style
of an image onto a content target, producing a result that is plausibly taken
with a camera. Recent approaches, based on deep neural networks, produce
impressive results but are either too slow to run at practical resolutions, or
still contain objectionable artifacts. We propose a new end-to-end model for
photorealistic style transfer that is both fast and inherently generates
photorealistic results. The core of our approach is a feed-forward neural
network that learns local edge-aware affine transforms that automatically obey
the photorealism constraint. When trained on a diverse set of images and a
variety of styles, our model can robustly apply style transfer to an arbitrary
pair of input images. Compared to the state of the art, our method produces
visually superior results and is three orders of magnitude faster, enabling
real-time performance at 4K on a mobile phone. We validate our method with
ablation and user studies.
- Abstract(参考訳): フォトリアリスティックなスタイル転送(photorealistic style transfer)は、画像の芸術的なスタイルをコンテンツターゲットに転送し、カメラで撮影される結果を生成するタスクである。
ディープニューラルネットワークに基づく最近のアプローチは、印象的な結果を生み出すが、実用的な解像度で実行するには遅すぎるか、あるいは不利なアーティファクトを含むかのどちらかだ。
本稿では,フォトリアリスティックなスタイル転送を高速かつ本質的に生成するエンド・ツー・エンドなモデルを提案する。
私たちのアプローチの核心は、光リアリズム制約に自動的に従う、エッジアウェアアフィン変換を学習するフィードフォワードニューラルネットワークです。
多様なイメージセットとさまざまなスタイルでトレーニングすると、任意の入力イメージにロバストにスタイル転送を適用することができます。
現状と比較すると,この手法は視覚的に優れた結果をもたらし,3桁の高速化を実現し,携帯電話の4kでのリアルタイムパフォーマンスを実現している。
本手法をアブレーションとユーザスタディで検証する。
関連論文リスト
- Towards Highly Realistic Artistic Style Transfer via Stable Diffusion with Step-aware and Layer-aware Prompt [12.27693060663517]
芸術的スタイルの転送は、学習した芸術的スタイルを任意のコンテンツイメージに転送することを目的としており、芸術的なスタイル化されたイメージを生成する。
LSASTと呼ばれる,事前学習型拡散型アートスタイルトランスファー手法を提案する。
提案手法は,最先端の芸術的スタイル伝達法よりも,よりリアルな芸術的スタイル化画像を生成することができる。
論文 参考訳(メタデータ) (2024-04-17T15:28:53Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Generative AI Model for Artistic Style Transfer Using Convolutional
Neural Networks [0.0]
芸術的なスタイルの転送は、ある画像の内容を別の芸術的なスタイルに融合させ、ユニークな視覚的な構成を作り出すことである。
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいスタイル伝達手法の概要を概説する。
論文 参考訳(メタデータ) (2023-10-27T16:21:17Z) - AdaCM: Adaptive ColorMLP for Real-Time Universal Photo-realistic Style
Transfer [53.41350013698697]
フォトリアリスティックなスタイル転送は、アートスタイルを模範的なスタイルのイメージからコンテンツイメージに移行し、空間歪みや非現実的なアーティファクトのない結果イメージを生成することを目的としている。
ユニバーサルフォトリアリスティックなスタイル転送のための効率的かつ効率的なフレームワークであるtextbfAdaptive ColorMLP (AdaCM) を提案する。
論文 参考訳(メタデータ) (2022-12-03T07:56:08Z) - Learning to Relight Portrait Images via a Virtual Light Stage and
Synthetic-to-Real Adaptation [76.96499178502759]
Relightingは、イメージ内の人物を、ターゲットの照明のある環境に現れたかのように再照らすことを目的としている。
最近の手法は、高品質な結果を得るためにディープラーニングに依存している。
そこで本研究では,光ステージを必要とせずに,SOTA(State-of-the-art Relighting Method)と同等に動作可能な新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T17:15:58Z) - AesUST: Towards Aesthetic-Enhanced Universal Style Transfer [15.078430702469886]
AesUSTは、新しいユニバーサルスタイルトランスファーアプローチである。
本研究では, 芸術作品の大規模なコーパスから, 普遍的な美的特徴を学習するための美的差別化手法を提案する。
また,モデルをより効果的にトレーニングするために,2つの審美規則を組み込んだ新しい2段階移動訓練戦略を開発した。
論文 参考訳(メタデータ) (2022-08-27T13:51:11Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Real-time Localized Photorealistic Video Style Transfer [25.91181753178577]
本稿では,対象映像の局所領域に意味論的に意味のある局所領域の芸術的スタイルを移すための新しいアルゴリズムを提案する。
近年のフォトリアリスティックなスタイル転送に触発されたディープニューラルネットワークアーキテクチャをベースとした本手法は,リアルタイムであり,任意の入力に作用する。
本手法は,複数のオブジェクトに異なるスタイルを同時に転送する機能を含む,様々なスタイルの画像やターゲットビデオに対して実証する。
論文 参考訳(メタデータ) (2020-10-20T06:21:09Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。