論文の概要: AdaCM: Adaptive ColorMLP for Real-Time Universal Photo-realistic Style
Transfer
- arxiv url: http://arxiv.org/abs/2212.01567v1
- Date: Sat, 3 Dec 2022 07:56:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:56:27.198924
- Title: AdaCM: Adaptive ColorMLP for Real-Time Universal Photo-realistic Style
Transfer
- Title(参考訳): AdaCM: リアルタイムユニバーサルフォトリアリスティックスタイル転送のための適応型カラーMLP
- Authors: Tianwei Lin, Honglin Lin, Fu Li, Dongliang He, Wenhao Wu, Meiling
Wang, Xin Li, Yong Liu
- Abstract要約: フォトリアリスティックなスタイル転送は、アートスタイルを模範的なスタイルのイメージからコンテンツイメージに移行し、空間歪みや非現実的なアーティファクトのない結果イメージを生成することを目的としている。
ユニバーサルフォトリアリスティックなスタイル転送のための効率的かつ効率的なフレームワークであるtextbfAdaptive ColorMLP (AdaCM) を提案する。
- 参考スコア(独自算出の注目度): 53.41350013698697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Photo-realistic style transfer aims at migrating the artistic style from an
exemplar style image to a content image, producing a result image without
spatial distortions or unrealistic artifacts. Impressive results have been
achieved by recent deep models. However, deep neural network based methods are
too expensive to run in real-time. Meanwhile, bilateral grid based methods are
much faster but still contain artifacts like overexposure. In this work, we
propose the \textbf{Adaptive ColorMLP (AdaCM)}, an effective and efficient
framework for universal photo-realistic style transfer. First, we find the
complex non-linear color mapping between input and target domain can be
efficiently modeled by a small multi-layer perceptron (ColorMLP) model. Then,
in \textbf{AdaCM}, we adopt a CNN encoder to adaptively predict all parameters
for the ColorMLP conditioned on each input content and style image pair.
Experimental results demonstrate that AdaCM can generate vivid and high-quality
stylization results. Meanwhile, our AdaCM is ultrafast and can process a 4K
resolution image in 6ms on one V100 GPU.
- Abstract(参考訳): フォトリアリスティックなスタイル転送は、芸術的スタイルを模範的なスタイルからコンテンツイメージに移行し、空間的歪みや非現実的アーティファクトのない結果画像を生成することを目的としている。
最近の深層モデルでは印象的な結果が得られている。
しかし、ディープニューラルネットワークベースの手法は、リアルタイムに実行するには高価すぎる。
一方、双方向グリッドベースの手法はより高速であるが、過剰露光のようなアーティファクトを含んでいる。
本研究では,フォトリアリスティックなスタイル転送のための効率的かつ効率的なフレームワークであるtextbf{Adaptive ColorMLP (AdaCM)}を提案する。
まず、入力領域と対象領域の間の複雑な非線形色マッピングを、小さな多層パーセプトロン(colormlp)モデルによって効率的にモデル化できることを示す。
次に,textbf{AdaCM}ではCNNエンコーダを採用し,各入力内容とスタイル画像対に条件付きColorMLPのパラメータを適応的に予測する。
実験の結果,adacmは鮮明で高品質なスタイライゼーション結果を生成することができた。
一方、AdaCMは超高速で、1つのV100 GPU上で6msで4K解像度の画像を処理できます。
関連論文リスト
- PixelShuffler: A Simple Image Translation Through Pixel Rearrangement [0.0]
スタイル転送は画像から画像への変換の応用として広く研究されており、ある画像の内容を他の画像のスタイルと組み合わせた画像の合成が目的である。
既存の最先端の手法は、しばしば高品質なスタイル転送を実現するために拡散モデルや言語モデルを含む複雑なニューラルネットワークに依存している。
本稿では,画像から画像への変換問題に対処する新たなピクセルシャッフル手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T22:08:41Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - Distilling Style from Image Pairs for Global Forward and Inverse Tone
Mapping [17.692674513446153]
このスタイルに関する情報は画像対の集合から抽出され、2次元または3次元のベクトルに符号化されることを示す。
これらのネットワークは,低次元空間における画像スタイルの正規化において,PCAやVAEよりも有効であることを示す。
論文 参考訳(メタデータ) (2022-09-30T01:26:16Z) - UV Volumes for Real-time Rendering of Editable Free-view Human
Performance [35.089358945669865]
UV Volumesは、人間のパフォーマーの編集可能なフリービュービデオをリアルタイムでレンダリングするアプローチである。
高周波(非滑らかな)人間のテクスチャを3次元ボリュームから取り除き、2次元のニューラルテクスチャスタックにエンコードすることで実現される。
CMU Panoptic、ZJU Mocap、H36Mデータセットの実験は、我々のモデルが40fpsで900×500画像をレンダリングできることを示しています。
論文 参考訳(メタデータ) (2022-03-27T21:54:36Z) - Interactive Style Transfer: All is Your Palette [74.06681967115594]
本稿では,ユーザが対話的に調和したスタイルのイメージを作成できる,図形的な対話型スタイル転送(IST)手法を提案する。
私たちのISTメソッドは、どこからでもブラシやディップスタイルとして機能し、ターゲットのコンテンツイメージの任意の領域にペイントします。
論文 参考訳(メタデータ) (2022-03-25T06:38:46Z) - FlexIT: Towards Flexible Semantic Image Translation [59.09398209706869]
我々は,任意の入力画像とユーザが定義したテキストを編集するための新しい方法であるFlexITを提案する。
まず、FlexITは入力画像とテキストをCLIPマルチモーダル埋め込み空間内の単一のターゲットポイントに結合する。
我々は、入力画像を目標点に向けて反復的に変換し、新しい正規化用語で一貫性と品質を確保する。
論文 参考訳(メタデータ) (2022-03-09T13:34:38Z) - UMFA: A photorealistic style transfer method based on U-Net and
multi-layer feature aggregation [0.0]
本稿では,フォトリアリスティックなイメージスタイリングの自然な効果を強調するために,フォトリアリスティックなスタイル転送ネットワークを提案する。
特に、高密度ブロックに基づくエンコーダとU-Netの対称構造を形成するデコーダとを連立して、効率的な特徴抽出と画像再構成を実現する。
論文 参考訳(メタデータ) (2021-08-13T08:06:29Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Joint Bilateral Learning for Real-time Universal Photorealistic Style
Transfer [18.455002563426262]
フォトリアリスティックなスタイル転送は、画像の芸術的スタイルをコンテンツターゲットに転送し、カメラで撮影可能な結果を生成するタスクである。
ディープニューラルネットワークに基づく最近のアプローチでは、印象的な結果が得られるが、現実的な解像度での実行には遅すぎるか、好ましくないアーティファクトがまだ含まれている。
高速かつ本質的にフォトリアリスティックな結果を生成するフォトリアリスティックなスタイル転送のための新しいエンド・ツー・エンドモデルを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:31:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。