論文の概要: CAMS: Color-Aware Multi-Style Transfer
- arxiv url: http://arxiv.org/abs/2106.13920v1
- Date: Sat, 26 Jun 2021 01:15:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 18:10:42.639383
- Title: CAMS: Color-Aware Multi-Style Transfer
- Title(参考訳): CAMS:カラー対応マルチスタイルトランスファー
- Authors: Mahmoud Afifi, Abdullah Abuolaim, Mostafa Hussien, Marcus A. Brubaker,
Michael S. Brown
- Abstract要約: スタイル転送は、ソースイメージ("content"イメージ)の外観を操作して、ターゲットの"style"イメージの類似したテクスチャと色を共有することを目的としている。
スタイルの転送を支援するために一般的に用いられるアプローチは、グラム行列最適化に基づいている。
スタイルと生成した画像のスタイルと色との相関を保ちながら、美的満足な結果を生成する色認識多形転写法を提案する。
- 参考スコア(独自算出の注目度): 46.550390398057985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image style transfer aims to manipulate the appearance of a source image, or
"content" image, to share similar texture and colors of a target "style" image.
Ideally, the style transfer manipulation should also preserve the semantic
content of the source image. A commonly used approach to assist in transferring
styles is based on Gram matrix optimization. One problem of Gram matrix-based
optimization is that it does not consider the correlation between colors and
their styles. Specifically, certain textures or structures should be associated
with specific colors. This is particularly challenging when the target style
image exhibits multiple style types. In this work, we propose a color-aware
multi-style transfer method that generates aesthetically pleasing results while
preserving the style-color correlation between style and generated images. We
achieve this desired outcome by introducing a simple but efficient modification
to classic Gram matrix-based style transfer optimization. A nice feature of our
method is that it enables the users to manually select the color associations
between the target style and content image for more transfer flexibility. We
validated our method with several qualitative comparisons, including a user
study conducted with 30 participants. In comparison with prior work, our method
is simple, easy to implement, and achieves visually appealing results when
targeting images that have multiple styles. Source code is available at
https://github.com/mahmoudnafifi/color-aware-style-transfer.
- Abstract(参考訳): 画像スタイル転送は、ソース画像や「コンテンツ」画像の外観を操作し、ターゲットの「スタイル」画像の同様のテクスチャや色を共有することを目的としている。
理想的には、スタイル転送操作はソースイメージの意味的内容も保持するべきです。
スタイルを転送するのによく使われるアプローチは、グラム行列最適化に基づいている。
グラム行列に基づく最適化の1つの問題は、色とスタイルの相関を考慮しないことである。
具体的には、特定のテクスチャや構造は特定の色に関連付けるべきである。
ターゲットのスタイルイメージが複数のスタイルタイプを示す場合、これは特に難しい。
本研究では,スタイルと生成画像のスタイル・カラー相関を保ちつつ,審美的に心地よい結果を生成するカラーアウェアマルチスタイル転送手法を提案する。
従来のグラムマトリクスに基づくスタイル転送最適化の単純かつ効率的な修正を導入することで,この望ましい結果を得る。
提案手法の優れた特徴は、ユーザがターゲットスタイルとコンテンツイメージのカラー関連を手動で選択し、転送の柔軟性を高めることである。
被験者30名を対象に実施したユーザスタディを含む,いくつかの定性比較を行った。
従来の手法と比較して,本手法は単純で実装が容易であり,複数のスタイルの画像を対象とする場合,視覚的に魅力的な結果が得られる。
ソースコードはhttps://github.com/mahmoudnafifi/color-aware-style-transferで入手できる。
関連論文リスト
- NCST: Neural-based Color Style Transfer for Video Retouching [3.2050418539021774]
ビデオカラー転送は、参照スタイル画像を用いて、オリジナルビデオの色スタイルを変換することを目的としている。
既存のほとんどの手法ではニューラルネットワークを採用しており、不透明な転送プロセスのような課題が伴っている。
2つの画像を用いて色調伝達のパラメータを推定する手法を提案する。
論文 参考訳(メタデータ) (2024-11-01T03:25:15Z) - MRStyle: A Unified Framework for Color Style Transfer with Multi-Modality Reference [32.64957647390327]
MRStyleは、画像やテキストを含む多モード参照を用いたカラースタイルの転送を可能にするフレームワークである。
テキスト参照では、安定拡散前のテキスト特徴とIRStyleのスタイル特徴とを一致させて、テキスト誘導カラースタイル転送(TRStyle)を行う。
我々のTRStyle法はトレーニングと推論の両方において極めて効率的であり、オープンセットのテキスト誘導転送結果を生成する。
論文 参考訳(メタデータ) (2024-09-09T00:01:48Z) - Any-to-Any Style Transfer: Making Picasso and Da Vinci Collaborate [58.83278629019384]
スタイル転送は、コンテンツ参照のために、ある画像のスタイルを他の画像へのスタイル参照にレンダリングすることを目的としている。
既存のアプローチでは、スタイルイメージの全体的スタイルをグローバルな方法で適用するか、あるいは、スタイルイメージのローカル色とテクスチャを、事前に定義された方法でコンテンツに移行するかのいずれかである。
本稿では,Any-to-Any Style Transferを提案する。Any-to-Any Style Transferは,スタイル画像中の領域のスタイルを対話的に選択し,所定のコンテンツ領域に適用することができる。
論文 参考訳(メタデータ) (2023-04-19T15:15:36Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - DiffStyler: Controllable Dual Diffusion for Text-Driven Image
Stylization [66.42741426640633]
DiffStylerは、拡散された結果の内容とスタイルのバランスを制御するための二重拡散処理アーキテクチャである。
本稿では、逆復調処理をベースとしたコンテンツ画像に基づく学習可能なノイズを提案し、そのスタイリング結果により、コンテンツ画像の構造情報をよりよく保存する。
論文 参考訳(メタデータ) (2022-11-19T12:30:44Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - P$^2$-GAN: Efficient Style Transfer Using Single Style Image [2.703193151632043]
スタイル転送は、与えられた画像を別の芸術的なスタイルに再レンダリングできる便利な画像合成技術である。
Generative Adversarial Network(GAN)は、ローカルスタイルパターンの表現能力を向上するために、このタスクに対して広く採用されているフレームワークである。
本稿では,ワンスタイル画像からストロークスタイルを効率的に学習できる新しいPatch Permutation GAN(P$2$-GAN)ネットワークを提案する。
論文 参考訳(メタデータ) (2020-01-21T12:08:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。