論文の概要: GenColor: Generative Color-Concept Association in Visual Design
- arxiv url: http://arxiv.org/abs/2503.03236v1
- Date: Wed, 05 Mar 2025 07:29:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:51:19.931388
- Title: GenColor: Generative Color-Concept Association in Visual Design
- Title(参考訳): GenColor:ビジュアルデザインにおける生成的カラーコンセプト協会
- Authors: Yihan Hou, Xingchen Zeng, Yusong Wang, Manling Yang, Xiaojiao Chen, Wei Zeng,
- Abstract要約: テキスト・ツー・イメージ・モデルにより生成された画像を利用した意味的共鳴色をマイニングするための生成的アプローチを提案する。
コンセプトインスタンシングは、拡散モデルを用いて生成サンプルを生成し、テキスト誘導画像セグメンテーションは、画像内の概念関連領域を特定し、主にアクセント色を伴う色関連抽出を行う。
- 参考スコア(独自算出の注目度): 1.9642328328398817
- License:
- Abstract: Existing approaches for color-concept association typically rely on query-based image referencing, and color extraction from image references. However, these approaches are effective only for common concepts, and are vulnerable to unstable image referencing and varying image conditions. Our formative study with designers underscores the need for primary-accent color compositions and context-dependent colors (e.g., 'clear' vs. 'polluted' sky) in design. In response, we introduce a generative approach for mining semantically resonant colors leveraging images generated by text-to-image models. Our insight is that contemporary text-to-image models can resemble visual patterns from large-scale real-world data. The framework comprises three stages: concept instancing produces generative samples using diffusion models, text-guided image segmentation identifies concept-relevant regions within the image, and color association extracts primarily accompanied by accent colors. Quantitative comparisons with expert designs validate our approach's effectiveness, and we demonstrate the applicability through cases in various design scenarios and a gallery.
- Abstract(参考訳): 既存のカラーコンセプト関連のためのアプローチは、通常、クエリベースの画像参照と画像参照からの色抽出に依存している。
しかし、これらのアプローチは一般的な概念にのみ有効であり、不安定な画像参照や様々な画像条件に対して脆弱である。
設計者によるフォーマティブな研究は、設計において一次アクセントの色組成と文脈に依存した色(例えば、'clear'対'polluted' sky'など)の必要性を浮き彫りにしている。
そこで本研究では,テキスト・ツー・イメージ・モデルにより生成した画像を利用して,意味的共鳴色をマイニングする生成手法を提案する。
我々の洞察では、現代のテキスト・ツー・イメージモデルは、大規模な実世界のデータから得られる視覚的パターンに類似する可能性がある。
コンセプトインスタンシングは、拡散モデルを用いて生成サンプルを生成し、テキスト誘導画像セグメンテーションは、画像内の概念関連領域を特定し、主にアクセント色を伴う色関連抽出を行う。
専門家による設計との比較により,提案手法の有効性を検証し,様々な設計シナリオやギャラリーでの事例による適用性を示す。
関連論文リスト
- ColorFlow: Retrieval-Augmented Image Sequence Colorization [65.93834649502898]
産業用途における画像シーケンスのカラー化に適した3段階拡散に基づくフレームワークを提案する。
IDごとの微調整や明示的なID埋め込み抽出を必要とする既存の手法とは異なり、我々は新たにRetrieval Augmented Colorization Pipelineを提案する。
パイプラインには、カラーアイデンティティ抽出のためのブランチと、カラー化のためのブランチという、デュアルブランチ設計も備えています。
論文 参考訳(メタデータ) (2024-12-16T14:32:49Z) - MultiColor: Image Colorization by Learning from Multiple Color Spaces [4.738828630428634]
MultiColorは、グレースケールイメージを自動的にカラー化する学習ベースの新しいアプローチである。
我々は、個々の色空間に専用の着色モジュール群を用いる。
これらの予測色チャネルは様々な色空間を表すため、相補的なネットワークは相補性を生かし、優雅で合理的な色付き画像を生成するように設計されている。
論文 参考訳(メタデータ) (2024-08-08T02:34:41Z) - Eye-for-an-eye: Appearance Transfer with Semantic Correspondence in Diffusion Models [8.65146533481257]
対象画像と同じ構造を持つが、参照画像から色を塗った結果を生成する方法を提案する。
既存のメソッドは、自己アテンション層内のクエリキーの類似性に依存し、通常は欠陥のある結果を生成する。
論文 参考訳(メタデータ) (2024-06-11T07:08:48Z) - Palette-based Color Transfer between Images [9.471264982229508]
そこで我々は,新しいカラースキームを自動生成できるパレットベースのカラートランスファー手法を提案する。
再設計されたパレットベースのクラスタリング手法により、色分布に応じて画素を異なるセグメントに分類することができる。
本手法は, 自然リアリズム, 色整合性, 一般性, 堅牢性の観点から, ピア法に対して有意な優位性を示す。
論文 参考訳(メタデータ) (2024-05-14T01:41:19Z) - Automatic Controllable Colorization via Imagination [55.489416987587305]
本稿では,反復的な編集と修正が可能な自動色付けフレームワークを提案する。
グレースケール画像内のコンテンツを理解することにより、トレーニング済みの画像生成モデルを用いて、同じコンテンツを含む複数の画像を生成する。
これらの画像は、人間の専門家の過程を模倣して、色付けの参考となる。
論文 参考訳(メタデータ) (2024-04-08T16:46:07Z) - Pick-and-Draw: Training-free Semantic Guidance for Text-to-Image
Personalization [56.12990759116612]
Pick-and-Drawは、パーソナライズ手法のアイデンティティ一貫性と生成多様性を高めるためのトレーニング不要なセマンティックガイダンスアプローチである。
提案手法は、パーソナライズされた拡散モデルに適用可能であり、単一の参照画像のみを必要とする。
論文 参考訳(メタデータ) (2024-01-30T05:56:12Z) - Language-based Photo Color Adjustment for Graphic Designs [38.43984897069872]
画像のリカラー化のための対話型言語ベースのアプローチを提案する。
本モデルでは,ソース色と対象領域を予測し,与えられた言語に基づく指示に基づいて,対象領域をソース色で再色することができる。
論文 参考訳(メタデータ) (2023-08-06T08:53:49Z) - Unsupervised Compositional Concepts Discovery with Text-to-Image
Generative Models [80.75258849913574]
本稿では、異なる画像の集合を考えると、各画像を表す生成概念を発見できるかという逆問題を考える。
本稿では,画像の集合から生成概念を抽出し,絵画やオブジェクト,キッチンシーンからの照明から異なる美術スタイルを分離し,イメージネット画像から得られる画像クラスを発見するための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:02:15Z) - PalGAN: Image Colorization with Palette Generative Adversarial Networks [51.59276436217957]
そこで本研究では,パレット推定とカラーアテンションを統合した新しいGANベースのカラー化手法PalGANを提案する。
PalGANは、定量的評価と視覚比較において最先端の成果を上げ、顕著な多様性、コントラスト、およびエッジ保存の外観を提供する。
論文 参考訳(メタデータ) (2022-10-20T12:28:31Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。