論文の概要: Controllable-Continuous Color Editing in Diffusion Model via Color Mapping
- arxiv url: http://arxiv.org/abs/2509.13756v1
- Date: Wed, 17 Sep 2025 07:12:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.752722
- Title: Controllable-Continuous Color Editing in Diffusion Model via Color Mapping
- Title(参考訳): カラーマッピングによる拡散モデルにおける可制御性連続色編集
- Authors: Yuqi Yang, Dongliang Chang, Yuanchen Fang, Yi-Zhe SonG, Zhanyu Ma, Jun Guo,
- Abstract要約: テキスト埋め込み空間と画像RGB値との対応性を明示的にモデル化するカラーマッピングモジュールを提案する。
ユーザーはターゲットのRGB範囲を指定することで、所望の範囲内で連続的な色の変化のある画像を生成することができる。
実験により,色の連続性と可制御性の観点から,本手法が良好に動作することを示した。
- 参考スコア(独自算出の注目度): 73.62340517056619
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, text-driven image editing has made significant progress. However, due to the inherent ambiguity and discreteness of natural language, color editing still faces challenges such as insufficient precision and difficulty in achieving continuous control. Although linearly interpolating the embedding vectors of different textual descriptions can guide the model to generate a sequence of images with varying colors, this approach lacks precise control over the range of color changes in the output images. Moreover, the relationship between the interpolation coefficient and the resulting image color is unknown and uncontrollable. To address these issues, we introduce a color mapping module that explicitly models the correspondence between the text embedding space and image RGB values. This module predicts the corresponding embedding vector based on a given RGB value, enabling precise color control of the generated images while maintaining semantic consistency. Users can specify a target RGB range to generate images with continuous color variations within the desired range, thereby achieving finer-grained, continuous, and controllable color editing. Experimental results demonstrate that our method performs well in terms of color continuity and controllability.
- Abstract(参考訳): 近年,テキストによる画像編集が進歩している。
しかしながら、自然言語の本質的な曖昧さと離散性のため、色編集は依然として精度の不足や連続的な制御の達成の難しさといった課題に直面している。
異なるテキスト記述の埋め込みベクトルを線形に補間することで、様々な色の画像列を生成することができるが、この手法では出力画像における色変化の範囲を正確に制御することができない。
また、補間係数と結果の画像色との関係は未知であり、制御不能である。
これらの問題に対処するために,テキスト埋め込み空間と画像RGB値との対応性を明示的にモデル化するカラーマッピングモジュールを導入する。
このモジュールは、所定のRGB値に基づいて対応する埋め込みベクトルを予測し、セマンティック一貫性を維持しつつ、生成された画像の正確な色制御を可能にする。
ユーザはターゲットのRGB範囲を指定することで、所望の範囲内で連続的な色変化のある画像を生成し、よりきめ細かな連続的な色編集を実現することができる。
実験により,色の連続性と可制御性の観点から,本手法が良好に動作することを示した。
関連論文リスト
- Leveraging Semantic Attribute Binding for Free-Lunch Color Control in Diffusion Models [53.73253164099701]
拡散モデルにおいて、微調整なしで正確なRGBレベルの色制御を実現する、トレーニング不要なアプローチであるColorWaveを導入する。
我々は、カラーウェーブが、構造化された、色一貫性の拡散に基づく画像合成のための新しいパラダイムを確立することを実証した。
論文 参考訳(メタデータ) (2025-03-12T21:49:52Z) - MangaNinja: Line Art Colorization with Precise Reference Following [84.2001766692797]
MangaNinjiaは、ラインアートのカラー化に特化している。
文字の詳細を正確に書き起こすために、2つの思慮深い設計を取り入れる。
基準カラー画像と対象ラインアートとの対応学習を容易にするパッチシャッフルモジュールと、きめ細かい色マッチングを可能にするポイント駆動制御スキームとを備える。
論文 参考訳(メタデータ) (2025-01-14T18:59:55Z) - Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - Color Shift Estimation-and-Correction for Image Enhancement [37.52492067462557]
準最適照明条件下で撮影された画像は、オーバー露光とアンダー露光の両方を含む可能性がある。
現在のアプローチは主に画像の明るさの調整に重点を置いており、これは未露光領域における色調歪みを悪化させる可能性がある。
そこで本研究では,これらの色変化を推定・補正する学習によって,過度露光と過度露光の両方で画像を強化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-28T00:45:35Z) - Control Color: Multimodal Diffusion-based Interactive Image Colorization [81.68817300796644]
Control Color (Ctrl Color) は、事前訓練された安定拡散(SD)モデルを利用する多モードカラー化手法である。
ユーザのストロークをエンコードして、局所的な色操作を正確に行うための効果的な方法を提案する。
また、カラーオーバーフローと不正確な色付けの長年の問題に対処するために、自己注意に基づく新しいモジュールとコンテンツ誘導型変形可能なオートエンコーダを導入する。
論文 参考訳(メタデータ) (2024-02-16T17:51:13Z) - DiffColor: Toward High Fidelity Text-Guided Image Colorization with
Diffusion Models [12.897939032560537]
そこで我々はDiffColorと呼ばれる新しい手法を提案し、プロンプトテキストに条件付けされた鮮やかな色を復元する。
私たちはまず、CLIPベースのコントラスト損失を用いて色付き画像を生成するために、事前訓練されたテキスト・ツー・イメージ・モデルを微調整する。
次に、色付き画像とテキストプロンプトを整列した最適化されたテキスト埋め込みと、高品質な画像再構成を可能にする微調整拡散モデルを得る。
提案手法は,複数回の反復で鮮やかな多彩な色を生成でき,その構造と背景をそのままに保ちつつ,対象言語指導に適合させる。
論文 参考訳(メタデータ) (2023-08-03T09:38:35Z) - Learning RAW-to-sRGB Mappings with Inaccurately Aligned Supervision [76.41657124981549]
本稿では,画像アライメントとRAW-to-sRGBマッピングのための共同学習モデルを提案する。
実験の結果,本手法はZRRおよびSR-RAWデータセットの最先端に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2021-08-18T12:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。