論文の概要: Image Enhancement Based on Pigment Representation
- arxiv url: http://arxiv.org/abs/2510.02713v1
- Date: Fri, 03 Oct 2025 04:28:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.260315
- Title: Image Enhancement Based on Pigment Representation
- Title(参考訳): 顔料表現に基づく画像強調
- Authors: Se-Ho Lee, Keunsoo Ko, Seung-Wook Kim,
- Abstract要約: 本稿では,顔料表現に基づく新規で効率的な画像強調手法を提案する。
RGBのような事前定義された色空間に色変換が制限される従来の方法とは異なり、本手法はRGB色をテキストピグメントと呼ばれる高次元の特徴空間に変換することにより、入力内容に動的に適応する。
- 参考スコア(独自算出の注目度): 7.232454050955806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel and efficient image enhancement method based on pigment representation. Unlike conventional methods where the color transformation is restricted to pre-defined color spaces like RGB, our method dynamically adapts to input content by transforming RGB colors into a high-dimensional feature space referred to as \textit{pigments}. The proposed pigment representation offers adaptability and expressiveness, achieving superior image enhancement performance. The proposed method involves transforming input RGB colors into high-dimensional pigments, which are then reprojected individually and blended to refine and aggregate the information of the colors in pigment spaces. Those pigments are then transformed back into RGB colors to generate an enhanced output image. The transformation and reprojection parameters are derived from the visual encoder which adaptively estimates such parameters based on the content in the input image. Extensive experimental results demonstrate the superior performance of the proposed method over state-of-the-art methods in image enhancement tasks, including image retouching and tone mapping, while maintaining relatively low computational complexity and small model size.
- Abstract(参考訳): 本稿では,顔料表現に基づく新規で効率的な画像強調手法を提案する。
RGBのような事前定義された色空間に色変換が制限される従来の方法とは異なり、本手法はRGB色を高次元の特徴空間である「textit{pigments}」に変換することにより、入力内容に動的に適応する。
提案した顔料表現は、適応性と表現性を提供し、優れた画像強調性能を実現する。
提案手法では, 入力RGB色を高次元顔料に変換し, 個別に再投影し, ブレンドして顔料空間内の色情報を洗練・集約する。
顔料はRGB色に変換され、出力画像が強化されます。
変換および再投影パラメータは、入力画像の内容に基づいて適応的にそのようなパラメータを推定するビジュアルエンコーダから導出される。
画像修正やトーンマッピングなど,画像強調作業における最先端手法よりも,比較的少ない計算複雑性と小さなモデルサイズを維持しつつ,提案手法の優れた性能を示した。
関連論文リスト
- Controllable-Continuous Color Editing in Diffusion Model via Color Mapping [73.62340517056619]
テキスト埋め込み空間と画像RGB値との対応性を明示的にモデル化するカラーマッピングモジュールを提案する。
ユーザーはターゲットのRGB範囲を指定することで、所望の範囲内で連続的な色の変化のある画像を生成することができる。
実験により,色の連続性と可制御性の観点から,本手法が良好に動作することを示した。
論文 参考訳(メタデータ) (2025-09-17T07:12:51Z) - Learning Physics-Informed Color-Aware Transforms for Low-Light Image Enhancement [5.8550460201927725]
本稿では,分解された物理情報に基づく低照度画像強調手法を提案する。
sRGB色空間における低照度画像と通常照度画像を直接マッピングする既存の方法は、一貫性のない色予測に悩まされている。
提案するPiCatフレームワークは,5つのベンチマークデータセットを対象とした最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2025-04-16T09:23:38Z) - Transforming Color: A Novel Image Colorization Method [8.041659727964305]
本稿では,色変換器とGANを用いた画像カラー化手法を提案する。
提案手法は,グローバルな情報を取得するためのトランスフォーマーアーキテクチャと,視覚的品質を改善するためのGANフレームワークを統合する。
実験の結果,提案するネットワークは,他の最先端のカラー化技術よりも優れていた。
論文 参考訳(メタデータ) (2024-10-07T07:23:42Z) - Deep chroma compression of tone-mapped images [46.07829363710451]
本稿では,HDRトーンマップ画像の高速かつ信頼性の高いクロマ圧縮のための生成逆ネットワークを提案する。
提案手法は,色精度において,最先端の画像生成および拡張ネットワークよりも優れることを示す。
このモデルはリアルタイムのパフォーマンスを実現し,計算資源が限られているデバイスに展開する上で有望な結果を示す。
論文 参考訳(メタデータ) (2024-09-24T12:31:55Z) - Rethinking RGB Color Representation for Image Restoration Models [55.81013540537963]
各画素に局所的な近傍構造情報を保持するために表現を拡大する。
画素あたりの損失に対する表現空間の置換は、画像復元モデルのトレーニングを容易にする。
私たちの空間は、色と局所構造の両方を再構築することで、全体的なメトリクスを一貫して改善します。
論文 参考訳(メタデータ) (2024-02-05T06:38:39Z) - Beyond Learned Metadata-based Raw Image Reconstruction [86.1667769209103]
生画像は、線形性や微細な量子化レベルなど、sRGB画像に対して明確な利点がある。
ストレージの要求が大きいため、一般ユーザからは広く採用されていない。
本稿では,メタデータとして,潜在空間におけるコンパクトな表現を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T06:59:07Z) - MIMT: Multi-Illuminant Color Constancy via Multi-Task Local Surface and
Light Color Learning [42.72878256074646]
単一入力画像における複数の光色を割引するマルチタスク学習手法を提案する。
複数の光色条件下で局所的な表面/光色をより正確に表現するために,我々は新しいマルチタスク学習フレームワークを設計する。
本モデルでは,マルチイルミナントデータセット上で,最先端のマルチイルミナントカラーコンステンシー法と比較して47.1%の改善を実現している。
論文 参考訳(メタデータ) (2022-11-16T09:00:20Z) - Exemplar-Based Image Colorization with A Learning Framework [7.793461393970992]
学習フレームワークを用いた自動着色手法を提案する。
カラー化過程と学習過程を分離し、同一のグレー画像に対して様々なカラースタイルを生成する。
最先端のカラー化アルゴリズムに匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-09-13T07:15:25Z) - Neural Color Operators for Sequential Image Retouching [62.99812889713773]
本稿では,新たに導入したトレーニング可能なニューラルカラー演算子のシーケンスとして,リタッチ処理をモデル化して,新しい画像リタッチ手法を提案する。
ニューラルカラー演算子は、従来のカラー演算子の振舞いを模倣し、その強度をスカラーで制御しながらピクセルワイズな色変換を学習する。
定量的な測定と視覚的品質の両面で,SOTA法と比較して常に最良の結果が得られている。
論文 参考訳(メタデータ) (2022-07-17T05:33:19Z) - Quaternion Optimized Model with Sparse Regularization for Color Image
Recovery [10.137095668835439]
本論文は、音声フォーマットや画像を含む様々な信号タイプが、それぞれのベースに対して本質的に疎い構造を持っているという事実に着想を得たものである。
色画像は四元数領域で全体として処理できるため、四元数離散コサイン変換(QDCT)領域における色画像の空間性について記述した。
より優れた低ランク近似を実現するために、提案モデルでは、クォーテリオンベースのトランケート核ノルム(QTNN)が採用されている。
論文 参考訳(メタデータ) (2022-04-19T03:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。