論文の概要: Deep Preset: Blending and Retouching Photos with Color Style Transfer
- arxiv url: http://arxiv.org/abs/2007.10701v2
- Date: Sat, 2 Jan 2021 10:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:39:15.877820
- Title: Deep Preset: Blending and Retouching Photos with Color Style Transfer
- Title(参考訳): deep preset:写真とカラースタイル転送のブレンドとリタッチ
- Authors: Man M. Ho, Jinjia Zhou
- Abstract要約: 我々は、低レベル画像変換、特に色調変換の学習に焦点をあて、次いで、地軸で色調変換を訓練する新しいスキームを提案する。
1)自然色のあるコンテンツから参照に色変換を表す特徴を一般化し、その特徴を内容の文脈的特徴にブレンドするように設計されている。
写真編集の強力なツールであるLightroomを使って、Flick2Kデータセットから1200のイメージと、69の設定で500のユーザ生成プリセットを使用して、60万のトレーニングサンプルを生成する。
- 参考スコア(独自算出の注目度): 15.95010869939508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: End-users, without knowledge in photography, desire to beautify their photos
to have a similar color style as a well-retouched reference. However, the
definition of style in recent image style transfer works is inappropriate. They
usually synthesize undesirable results due to transferring exact colors to the
wrong destination. It becomes even worse in sensitive cases such as portraits.
In this work, we concentrate on learning low-level image transformation,
especially color-shifting methods, rather than mixing contextual features, then
present a novel scheme to train color style transfer with ground-truth.
Furthermore, we propose a color style transfer named Deep Preset. It is
designed to 1) generalize the features representing the color transformation
from content with natural colors to retouched reference, then blend it into the
contextual features of content, 2) predict hyper-parameters (settings or
preset) of the applied low-level color transformation methods, 3) stylize
content to have a similar color style as reference. We script Lightroom, a
powerful tool in editing photos, to generate 600,000 training samples using
1,200 images from the Flick2K dataset and 500 user-generated presets with 69
settings. Experimental results show that our Deep Preset outperforms the
previous works in color style transfer quantitatively and qualitatively.
- Abstract(参考訳): エンドユーザーは写真に詳しくないが、よく修正された参照と同様のカラースタイルで写真を美化したい。
しかし、近年のイメージスタイル転送作品におけるスタイル定義は不適切である。
彼らは通常、正確な色を間違った目的地に移すことで望ましくない結果を合成する。
肖像画などの繊細なケースではさらに悪化する。
本研究では,背景特徴を混合するのではなく,低レベル画像変換,特にカラーシフト法を学習することに集中し,接地面を用いたカラー変換を訓練する新しい手法を提案する。
さらに,Deep Presetというカラースタイルのトランスファーを提案する。
設計されている。
1) 色変化を表す特徴を自然色から変化した参照に一般化し, 内容の文脈的特徴にブレンドする。
2)低レベル色変換法のハイパーパラメータ(設定または事前設定)を予測する。
3)スタイライズ内容は参照と類似した色調を有する。
写真を編集する強力なツールであるlightroomは、flick2kデータセットから1200の画像と、69設定のユーザ生成プリセット500を使って、60万のトレーニングサンプルを生成します。
実験結果から,我々のDeep Presetはカラースタイルの伝達において,従来よりも定量的に,質的に優れていたことがわかった。
関連論文リスト
- NCST: Neural-based Color Style Transfer for Video Retouching [3.2050418539021774]
ビデオカラー転送は、参照スタイル画像を用いて、オリジナルビデオの色スタイルを変換することを目的としている。
既存のほとんどの手法ではニューラルネットワークを採用しており、不透明な転送プロセスのような課題が伴っている。
2つの画像を用いて色調伝達のパラメータを推定する手法を提案する。
論文 参考訳(メタデータ) (2024-11-01T03:25:15Z) - NamedCurves: Learned Image Enhancement via Color Naming [35.01034487051896]
そこで我々は,学習に基づく画像強調手法であるnamedCurvesを提案する。
提案手法では,各色をトーンカーブでグローバルに調整し,空間的編集を模倣するために注意に基づく融合機構を用いて画像を組み合わせる。
論文 参考訳(メタデータ) (2024-07-13T13:51:25Z) - Palette-based Color Transfer between Images [9.471264982229508]
そこで我々は,新しいカラースキームを自動生成できるパレットベースのカラートランスファー手法を提案する。
再設計されたパレットベースのクラスタリング手法により、色分布に応じて画素を異なるセグメントに分類することができる。
本手法は, 自然リアリズム, 色整合性, 一般性, 堅牢性の観点から, ピア法に対して有意な優位性を示す。
論文 参考訳(メタデータ) (2024-05-14T01:41:19Z) - Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - Dequantization and Color Transfer with Diffusion Models [5.228564799458042]
量子化されたイメージは、パッチベースの編集とパレット転送を簡単に抽象化する。
提案モデルでは,ユーザが求めているカラーパレットを尊重する自然な画像を生成できることが示される。
本手法は,画像のテクスチャを尊重しながら,画像のパッチを塗り替えることによって,別の実用的な編集に拡張することができる。
論文 参考訳(メタデータ) (2023-07-06T00:07:32Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - Neural Preset for Color Style Transfer [46.66925849502683]
本稿では,既存のカラースタイル転送手法の限界に対処するニューラルプレセット手法を提案する。
提案手法は2つのコア設計に基づいており,まず,各画素に対して連続的に動作する決定論的ニューラルカラーマッピング(DNCM)を提案する。
第2に、タスクをカラー正規化とスタイル化に分割することで、2段階のパイプラインを構築する。
論文 参考訳(メタデータ) (2023-03-23T17:59:10Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - CAMS: Color-Aware Multi-Style Transfer [46.550390398057985]
スタイル転送は、ソースイメージ("content"イメージ)の外観を操作して、ターゲットの"style"イメージの類似したテクスチャと色を共有することを目的としている。
スタイルの転送を支援するために一般的に用いられるアプローチは、グラム行列最適化に基づいている。
スタイルと生成した画像のスタイルと色との相関を保ちながら、美的満足な結果を生成する色認識多形転写法を提案する。
論文 参考訳(メタデータ) (2021-06-26T01:15:09Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。