論文の概要: Language-based Photo Color Adjustment for Graphic Designs
- arxiv url: http://arxiv.org/abs/2308.03059v1
- Date: Sun, 6 Aug 2023 08:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 17:01:38.797802
- Title: Language-based Photo Color Adjustment for Graphic Designs
- Title(参考訳): グラフィックデザインのための言語に基づくフォトカラー調整
- Authors: Zhenwei Wang, Nanxuan Zhao, Gerhard Hancke, Rynson W.H. Lau
- Abstract要約: 画像のリカラー化のための対話型言語ベースのアプローチを提案する。
本モデルでは,ソース色と対象領域を予測し,与えられた言語に基づく指示に基づいて,対象領域をソース色で再色することができる。
- 参考スコア(独自算出の注目度): 38.43984897069872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adjusting the photo color to associate with some design elements is an
essential way for a graphic design to effectively deliver its message and make
it aesthetically pleasing. However, existing tools and previous works face a
dilemma between the ease of use and level of expressiveness. To this end, we
introduce an interactive language-based approach for photo recoloring, which
provides an intuitive system that can assist both experts and novices on
graphic design. Given a graphic design containing a photo that needs to be
recolored, our model can predict the source colors and the target regions, and
then recolor the target regions with the source colors based on the given
language-based instruction. The multi-granularity of the instruction allows
diverse user intentions. The proposed novel task faces several unique
challenges, including: 1) color accuracy for recoloring with exactly the same
color from the target design element as specified by the user; 2)
multi-granularity instructions for parsing instructions correctly to generate a
specific result or multiple plausible ones; and 3) locality for recoloring in
semantically meaningful local regions to preserve original image semantics. To
address these challenges, we propose a model called LangRecol with two main
components: the language-based source color prediction module and the
semantic-palette-based photo recoloring module. We also introduce an approach
for generating a synthetic graphic design dataset with instructions to enable
model training. We evaluate our model via extensive experiments and user
studies. We also discuss several practical applications, showing the
effectiveness and practicality of our approach. Code and data for this paper
are at: https://zhenwwang.github.io/langrecol.
- Abstract(参考訳): 写真の色を調整してデザイン要素を関連付けることは、グラフィックデザインがそのメッセージを効果的に届け、美的に喜ばせるための必須の方法です。
しかし、既存のツールや以前の作業は使いやすさと表現力のレベルの間にジレンマに直面している。
そこで本研究では,インタラクティブな言語による写真彩色手法を導入することで,グラフィックデザインのエキスパートと初心者の両方を支援する直感的なシステムを提案する。
色を変える必要がある写真を含むグラフィックデザインを前提として,本モデルでは,原色と対象領域を予測し,与えられた言語に基づく指示に基づいて対象領域を原色で再現する。
命令の多粒度は多様なユーザ意図を可能にする。
提案する新たなタスクは,次のようなユニークな課題に直面する。
1) 利用者が指定したターゲットデザイン要素からまったく同じ色で色を再現するための色精度
2 指示を正しく解析し、特定の結果又は複数の妥当な結果を生成するための多粒性指示
3) 意味的に意味のある局所領域において, 原画像のセマンティクスを保たせるために再色する局所性。
これらの課題に対処するため,LangRecolと呼ばれる言語ベースの色予測モジュールとセマンティック・パレットベースの写真再色生成モジュールの2つの主要コンポーネントを提案する。
また,モデル学習を可能にするインストラクションを用いた合成グラフィックデザインデータセットの作成手法を提案する。
我々は広範囲な実験とユーザスタディを通じてモデルを評価する。
また,本手法の有効性と実用性を示すいくつかの実用的応用についても論じる。
この論文のコードとデータは以下のとおりである。
関連論文リスト
- Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - Pick-and-Draw: Training-free Semantic Guidance for Text-to-Image
Personalization [56.12990759116612]
Pick-and-Drawは、パーソナライズ手法のアイデンティティ一貫性と生成多様性を高めるためのトレーニング不要なセマンティックガイダンスアプローチである。
提案手法は、パーソナライズされた拡散モデルに適用可能であり、単一の参照画像のみを必要とする。
論文 参考訳(メタデータ) (2024-01-30T05:56:12Z) - ColorizeDiffusion: Adjustable Sketch Colorization with Reference Image
and Text [3.3150558088915445]
本稿では,画像誘導モデル,特に参照ベーススケッチのカラー化を対象とし,徹底的に検討する。
事前学習したCLIP画像エンコーダの異なる画像トークンを用いた画像誘導潜時拡散モデルの2つのバリエーションを紹介する。
重み付きテキスト入力を用いて結果の逐次的調整を行うための,対応する操作手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T22:46:12Z) - Fine-Tuning InstructPix2Pix for Advanced Image Colorization [3.4975669723257035]
本稿では,InstructPix2Pixモデルの微調整によるヒト画像のカラー化手法を提案する。
IMDB-WIKIデータセットを用いてモデルを微調整し、ChatGPTが生成する多様なカラー化プロンプトと白黒画像をペアリングする。
微調整後,本モデルでは,元となるInstructPix2Pixモデルを定量的に比較した。
論文 参考訳(メタデータ) (2023-12-08T01:36:49Z) - L-CAD: Language-based Colorization with Any-level Descriptions using
Diffusion Priors [62.80068955192816]
我々は,任意のレベルの記述で言語ベースの色付けを行う統一モデルを提案する。
我々は、その頑健な言語理解と豊かな色優先のために、事前訓練されたモダリティ生成モデルを活用する。
提案した新しいサンプリング戦略により,多様な複雑なシナリオにおいて,インスタンス認識のカラー化を実現する。
論文 参考訳(メタデータ) (2023-05-24T14:57:42Z) - Color2Style: Real-Time Exemplar-Based Image Colorization with
Self-Reference Learning and Deep Feature Modulation [29.270149925368674]
色を鮮やかな色で満たしてグレースケールの画像媒体を復活させるため,カラーカラー化手法としてColor2Styleを提案する。
提案手法は,参照画像から抽出した色埋め込みを入力されたグレースケール画像の深部表現に注入する,単純だが効果的な深部特徴変調(DFM)モジュールを利用する。
論文 参考訳(メタデータ) (2021-06-15T10:05:58Z) - HistoGAN: Controlling Colors of GAN-Generated and Real Images via Color
Histograms [52.77252727786091]
HistoGANは、GAN生成画像の色を制御するための色ヒストグラムに基づく方法である。
我々は、HistoGANを拡張して、実画像を再色する方法を示す。
論文 参考訳(メタデータ) (2020-11-23T21:14:19Z) - Reference-Based Sketch Image Colorization using Augmented-Self Reference
and Dense Semantic Correspondence [32.848390767305276]
本稿では,すでに色のついた参照画像が与えられたスケッチ画像の自動着色作業に取り組む。
仮想参照として幾何学的歪みを持つ同一画像を有効利用することにより、色付き出力画像の基底真理を確保できる。
論文 参考訳(メタデータ) (2020-05-11T15:52:50Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。