論文の概要: Deep Preset: Blending and Retouching Photos with Color Style Transfer
- arxiv url: http://arxiv.org/abs/2007.10701v2
- Date: Sat, 2 Jan 2021 10:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:39:15.877820
- Title: Deep Preset: Blending and Retouching Photos with Color Style Transfer
- Title(参考訳): deep preset:写真とカラースタイル転送のブレンドとリタッチ
- Authors: Man M. Ho, Jinjia Zhou
- Abstract要約: 我々は、低レベル画像変換、特に色調変換の学習に焦点をあて、次いで、地軸で色調変換を訓練する新しいスキームを提案する。
1)自然色のあるコンテンツから参照に色変換を表す特徴を一般化し、その特徴を内容の文脈的特徴にブレンドするように設計されている。
写真編集の強力なツールであるLightroomを使って、Flick2Kデータセットから1200のイメージと、69の設定で500のユーザ生成プリセットを使用して、60万のトレーニングサンプルを生成する。
- 参考スコア(独自算出の注目度): 15.95010869939508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-users, without knowledge in photography, desire to beautify their photos
to have a similar color style as a well-retouched reference. However, the
definition of style in recent image style transfer works is inappropriate. They
usually synthesize undesirable results due to transferring exact colors to the
wrong destination. It becomes even worse in sensitive cases such as portraits.
In this work, we concentrate on learning low-level image transformation,
especially color-shifting methods, rather than mixing contextual features, then
present a novel scheme to train color style transfer with ground-truth.
Furthermore, we propose a color style transfer named Deep Preset. It is
designed to 1) generalize the features representing the color transformation
from content with natural colors to retouched reference, then blend it into the
contextual features of content, 2) predict hyper-parameters (settings or
preset) of the applied low-level color transformation methods, 3) stylize
content to have a similar color style as reference. We script Lightroom, a
powerful tool in editing photos, to generate 600,000 training samples using
1,200 images from the Flick2K dataset and 500 user-generated presets with 69
settings. Experimental results show that our Deep Preset outperforms the
previous works in color style transfer quantitatively and qualitatively.
- Abstract(参考訳): エンドユーザーは写真に詳しくないが、よく修正された参照と同様のカラースタイルで写真を美化したい。
しかし、近年のイメージスタイル転送作品におけるスタイル定義は不適切である。
彼らは通常、正確な色を間違った目的地に移すことで望ましくない結果を合成する。
肖像画などの繊細なケースではさらに悪化する。
本研究では,背景特徴を混合するのではなく,低レベル画像変換,特にカラーシフト法を学習することに集中し,接地面を用いたカラー変換を訓練する新しい手法を提案する。
さらに,Deep Presetというカラースタイルのトランスファーを提案する。
設計されている。
1) 色変化を表す特徴を自然色から変化した参照に一般化し, 内容の文脈的特徴にブレンドする。
2)低レベル色変換法のハイパーパラメータ(設定または事前設定)を予測する。
3)スタイライズ内容は参照と類似した色調を有する。
写真を編集する強力なツールであるlightroomは、flick2kデータセットから1200の画像と、69設定のユーザ生成プリセット500を使って、60万のトレーニングサンプルを生成します。
実験結果から,我々のDeep Presetはカラースタイルの伝達において,従来よりも定量的に,質的に優れていたことがわかった。
関連論文リスト
- DiffColor: Toward High Fidelity Text-Guided Image Colorization with
Diffusion Models [12.897939032560537]
そこで我々はDiffColorと呼ばれる新しい手法を提案し、プロンプトテキストに条件付けされた鮮やかな色を復元する。
私たちはまず、CLIPベースのコントラスト損失を用いて色付き画像を生成するために、事前訓練されたテキスト・ツー・イメージ・モデルを微調整する。
次に、色付き画像とテキストプロンプトを整列した最適化されたテキスト埋め込みと、高品質な画像再構成を可能にする微調整拡散モデルを得る。
提案手法は,複数回の反復で鮮やかな多彩な色を生成でき,その構造と背景をそのままに保ちつつ,対象言語指導に適合させる。
論文 参考訳(メタデータ) (2023-08-03T09:38:35Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - Neural Preset for Color Style Transfer [46.66925849502683]
本稿では,既存のカラースタイル転送手法の限界に対処するニューラルプレセット手法を提案する。
提案手法は2つのコア設計に基づいており,まず,各画素に対して連続的に動作する決定論的ニューラルカラーマッピング(DNCM)を提案する。
第2に、タスクをカラー正規化とスタイル化に分割することで、2段階のパイプラインを構築する。
論文 参考訳(メタデータ) (2023-03-23T17:59:10Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - CAMS: Color-Aware Multi-Style Transfer [46.550390398057985]
スタイル転送は、ソースイメージ("content"イメージ)の外観を操作して、ターゲットの"style"イメージの類似したテクスチャと色を共有することを目的としている。
スタイルの転送を支援するために一般的に用いられるアプローチは、グラム行列最適化に基づいている。
スタイルと生成した画像のスタイルと色との相関を保ちながら、美的満足な結果を生成する色認識多形転写法を提案する。
論文 参考訳(メタデータ) (2021-06-26T01:15:09Z) - Color2Style: Real-Time Exemplar-Based Image Colorization with
Self-Reference Learning and Deep Feature Modulation [29.270149925368674]
色を鮮やかな色で満たしてグレースケールの画像媒体を復活させるため,カラーカラー化手法としてColor2Styleを提案する。
提案手法は,参照画像から抽出した色埋め込みを入力されたグレースケール画像の深部表現に注入する,単純だが効果的な深部特徴変調(DFM)モジュールを利用する。
論文 参考訳(メタデータ) (2021-06-15T10:05:58Z) - Filter Style Transfer between Photos [11.796188165729342]
フィルタスタイル転送(FST)は、モバイル端末上の2ms以下のFHD画像間のカスタムフィルタ効果を、テキストによるコンテキストロスなしで転送できる、最初のスタイル転送方式である。
論文 参考訳(メタデータ) (2020-07-15T18:09:35Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。