論文の概要: Language-based Photo Color Adjustment for Graphic Designs
- arxiv url: http://arxiv.org/abs/2308.03059v1
- Date: Sun, 6 Aug 2023 08:53:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 17:01:38.797802
- Title: Language-based Photo Color Adjustment for Graphic Designs
- Title(参考訳): グラフィックデザインのための言語に基づくフォトカラー調整
- Authors: Zhenwei Wang, Nanxuan Zhao, Gerhard Hancke, Rynson W.H. Lau
- Abstract要約: 画像のリカラー化のための対話型言語ベースのアプローチを提案する。
本モデルでは,ソース色と対象領域を予測し,与えられた言語に基づく指示に基づいて,対象領域をソース色で再色することができる。
- 参考スコア(独自算出の注目度): 38.43984897069872
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adjusting the photo color to associate with some design elements is an
essential way for a graphic design to effectively deliver its message and make
it aesthetically pleasing. However, existing tools and previous works face a
dilemma between the ease of use and level of expressiveness. To this end, we
introduce an interactive language-based approach for photo recoloring, which
provides an intuitive system that can assist both experts and novices on
graphic design. Given a graphic design containing a photo that needs to be
recolored, our model can predict the source colors and the target regions, and
then recolor the target regions with the source colors based on the given
language-based instruction. The multi-granularity of the instruction allows
diverse user intentions. The proposed novel task faces several unique
challenges, including: 1) color accuracy for recoloring with exactly the same
color from the target design element as specified by the user; 2)
multi-granularity instructions for parsing instructions correctly to generate a
specific result or multiple plausible ones; and 3) locality for recoloring in
semantically meaningful local regions to preserve original image semantics. To
address these challenges, we propose a model called LangRecol with two main
components: the language-based source color prediction module and the
semantic-palette-based photo recoloring module. We also introduce an approach
for generating a synthetic graphic design dataset with instructions to enable
model training. We evaluate our model via extensive experiments and user
studies. We also discuss several practical applications, showing the
effectiveness and practicality of our approach. Code and data for this paper
are at: https://zhenwwang.github.io/langrecol.
- Abstract(参考訳): 写真の色を調整してデザイン要素を関連付けることは、グラフィックデザインがそのメッセージを効果的に届け、美的に喜ばせるための必須の方法です。
しかし、既存のツールや以前の作業は使いやすさと表現力のレベルの間にジレンマに直面している。
そこで本研究では,インタラクティブな言語による写真彩色手法を導入することで,グラフィックデザインのエキスパートと初心者の両方を支援する直感的なシステムを提案する。
色を変える必要がある写真を含むグラフィックデザインを前提として,本モデルでは,原色と対象領域を予測し,与えられた言語に基づく指示に基づいて対象領域を原色で再現する。
命令の多粒度は多様なユーザ意図を可能にする。
提案する新たなタスクは,次のようなユニークな課題に直面する。
1) 利用者が指定したターゲットデザイン要素からまったく同じ色で色を再現するための色精度
2 指示を正しく解析し、特定の結果又は複数の妥当な結果を生成するための多粒性指示
3) 意味的に意味のある局所領域において, 原画像のセマンティクスを保たせるために再色する局所性。
これらの課題に対処するため,LangRecolと呼ばれる言語ベースの色予測モジュールとセマンティック・パレットベースの写真再色生成モジュールの2つの主要コンポーネントを提案する。
また,モデル学習を可能にするインストラクションを用いた合成グラフィックデザインデータセットの作成手法を提案する。
我々は広範囲な実験とユーザスタディを通じてモデルを評価する。
また,本手法の有効性と実用性を示すいくつかの実用的応用についても論じる。
この論文のコードとデータは以下のとおりである。
関連論文リスト
- ColorPeel: Color Prompt Learning with Diffusion Models via Color and Shape Disentanglement [20.45850285936787]
ユーザが選択した色に合わせて、特定の色プロンプトを学習することを提案する。
我々の手法はColorPeelと呼ばれ、T2Iモデルが新しいカラープロンプトを剥がすのに役立ちます。
本研究は,T2Iモデルの精度と汎用性向上に向けた重要な一歩である。
論文 参考訳(メタデータ) (2024-07-09T19:26:34Z) - VIP: Versatile Image Outpainting Empowered by Multimodal Large Language Model [76.02314305164595]
本研究は,ユーザの要求に応じて結果のカスタマイズが可能な,新たな画像出力フレームワークを提案する。
画像のマスキング部分とマスキング部分のテキスト記述を自動的に抽出し整理するマルチモーダル大言語モデル(MLLM)を利用する。
さらに、画像の特定の空間領域とテキストプロンプトの対応する部分との相互作用を強化するために、特別にCentral-Total-Surrounding (CTS) と呼ばれるCentral-Attentionモジュールが精巧に設計されている。
論文 参考訳(メタデータ) (2024-06-03T07:14:19Z) - Palette-based Color Transfer between Images [9.471264982229508]
そこで我々は,新しいカラースキームを自動生成できるパレットベースのカラートランスファー手法を提案する。
再設計されたパレットベースのクラスタリング手法により、色分布に応じて画素を異なるセグメントに分類することができる。
本手法は, 自然リアリズム, 色整合性, 一般性, 堅牢性の観点から, ピア法に対して有意な優位性を示す。
論文 参考訳(メタデータ) (2024-05-14T01:41:19Z) - Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - Tuning-Free Image Customization with Image and Text Guidance [65.9504243633169]
テキスト画像の同時カスタマイズのためのチューニング不要なフレームワークを提案する。
提案手法は,テキスト記述に基づく詳細な属性の修正が可能でありながら,参照画像のセマンティックな特徴を保っている。
提案手法は,人的・定量的評価において,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-19T11:48:35Z) - Pick-and-Draw: Training-free Semantic Guidance for Text-to-Image
Personalization [56.12990759116612]
Pick-and-Drawは、パーソナライズ手法のアイデンティティ一貫性と生成多様性を高めるためのトレーニング不要なセマンティックガイダンスアプローチである。
提案手法は、パーソナライズされた拡散モデルに適用可能であり、単一の参照画像のみを必要とする。
論文 参考訳(メタデータ) (2024-01-30T05:56:12Z) - Fine-Tuning InstructPix2Pix for Advanced Image Colorization [3.4975669723257035]
本稿では,InstructPix2Pixモデルの微調整によるヒト画像のカラー化手法を提案する。
IMDB-WIKIデータセットを用いてモデルを微調整し、ChatGPTが生成する多様なカラー化プロンプトと白黒画像をペアリングする。
微調整後,本モデルでは,元となるInstructPix2Pixモデルを定量的に比較した。
論文 参考訳(メタデータ) (2023-12-08T01:36:49Z) - L-CAD: Language-based Colorization with Any-level Descriptions using
Diffusion Priors [62.80068955192816]
我々は,任意のレベルの記述で言語ベースの色付けを行う統一モデルを提案する。
我々は、その頑健な言語理解と豊かな色優先のために、事前訓練されたモダリティ生成モデルを活用する。
提案した新しいサンプリング戦略により,多様な複雑なシナリオにおいて,インスタンス認識のカラー化を実現する。
論文 参考訳(メタデータ) (2023-05-24T14:57:42Z) - Color2Style: Real-Time Exemplar-Based Image Colorization with
Self-Reference Learning and Deep Feature Modulation [29.270149925368674]
色を鮮やかな色で満たしてグレースケールの画像媒体を復活させるため,カラーカラー化手法としてColor2Styleを提案する。
提案手法は,参照画像から抽出した色埋め込みを入力されたグレースケール画像の深部表現に注入する,単純だが効果的な深部特徴変調(DFM)モジュールを利用する。
論文 参考訳(メタデータ) (2021-06-15T10:05:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。