論文の概要: Optimized $k$-means color quantization of digital images in machine-based and human perception-based colorspaces
- arxiv url: http://arxiv.org/abs/2601.19117v1
- Date: Tue, 27 Jan 2026 02:42:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.137278
- Title: Optimized $k$-means color quantization of digital images in machine-based and human perception-based colorspaces
- Title(参考訳): 機械と人間の知覚に基づく色空間におけるデジタル画像の最適$k$-means色量子化
- Authors: Ranjan Maitra,
- Abstract要約: 本稿では,RGB,CIE-XYZ,CIE-LUV/CIE-HCLの4つの量子化レベルにおける$k$-meansアルゴリズムの性能について検討する。
約半数のケースでは、$k$-means色量子化はRGB空間で最適である。
また、CIE-LUVカラースペースで最高のパフォーマンスが得られる場合、特に$k$以下の場合もあります。
- 参考スコア(独自算出の注目度): 2.3859169601259347
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Color quantization represents an image using a fraction of its original number of colors while only minimally losing its visual quality. The $k$-means algorithm is commonly used in this context, but has mostly been applied in the machine-based RGB colorspace composed of the three primary colors. However, some recent studies have indicated its improved performance in human perception-based colorspaces. We investigated the performance of $k$-means color quantization at four quantization levels in the RGB, CIE-XYZ, and CIE-LUV/CIE-HCL colorspaces, on 148 varied digital images spanning a wide range of scenes, subjects and settings. The Visual Information Fidelity (VIF) measure numerically assessed the quality of the quantized images, and showed that in about half of the cases, $k$-means color quantization is best in the RGB space, while at other times, and especially for higher quantization levels ($k$), the CIE-XYZ colorspace is where it usually does better. There are also some cases, especially at lower $k$, where the best performance is obtained in the CIE-LUV colorspace. Further analysis of the performances in terms of the distributions of the hue, chromaticity and luminance in an image presents a nuanced perspective and characterization of the images for which each colorspace is better for $k$-means color quantization.
- Abstract(参考訳): カラー量子化(Color Quantization)は、元の色数の一部を使用しながら、視覚的品質を最小限に損なうイメージを表す。
k$-meansアルゴリズムはこの文脈で一般的に使用されるが、主に3つの一次色からなるマシンベースのRGBカラースペースに適用されている。
しかし、近年の研究では、人間の知覚に基づく色空間の性能向上が示されている。
我々はRGB, CIE-XYZ, CIE-LUV/CIE-HCLカラー空間の4つの量子化レベルにおける$k$-meansカラー量子化の性能について, 様々な場面, 主題, 設定にまたがる148種類のデジタル画像について検討した。
ビジュアル・インフォメーション・フィデリティ(VIF)は、量子化された画像の品質を数値的に評価し、約半数のケースにおいて、$k$-meansの色量子化はRGB空間において最も良いが、他の場合、特に高い量子化レベル(k$)では、CIE-XYZ色空間が良くなることを示した。
また、CIE-LUVカラースペースで最高のパフォーマンスが得られる場合、特に$k$以下の場合もあります。
画像中の色調,色度,輝度の分布について,さらに解析を行い,各色空間が$k$-means色量子化に最適である画像のニュアンスな視点とキャラクタリゼーションを示す。
関連論文リスト
- Name Your Colour For the Task: Artificially Discover Colour Naming via
Colour Quantisation Transformer [62.75343115345667]
そこで本研究では,色空間を定量化しつつ,画像上での認識を維持しつつ,色空間を定量化する新しい色量子化変換器CQFormerを提案する。
人工色システムと人間の言語における基本色用語との一貫性のある進化パターンを観察する。
我々のカラー量子化法は、画像記憶を効果的に圧縮する効率的な量子化法も提供する。
論文 参考訳(メタデータ) (2022-12-07T03:39:18Z) - Influence of Color Spaces for Deep Learning Image Colorization [2.3705923859070217]
既存のカラー化手法は、RGB、YUV、Labなど、さまざまな色空間に依存している。
本章では,深層ニューラルネットワークのトレーニングによって得られる結果に対する影響について検討する。
RGB,YUV,Labの色空間と同一の深層ニューラルネットワークアーキテクチャを用いて得られた結果を比較した。
論文 参考訳(メタデータ) (2022-04-06T14:14:07Z) - The Utility of Decorrelating Colour Spaces in Vector Quantised
Variational Autoencoders [1.7792264784100689]
ネットワーク学習構造表現を強制するカラー空間変換を提案する。
入力が1つの色空間のイメージであり、出力が別の色空間のイメージであるVQ-VAEのいくつかの例を訓練した。
論文 参考訳(メタデータ) (2020-09-30T07:44:01Z) - Probabilistic Color Constancy [88.85103410035929]
我々は、異なる画像領域の寄与を重み付けすることで、シーンの照度を推定するためのフレームワークを定義する。
提案手法は,INTEL-TAUデータセット上での最先端技術と比較して,競合性能を実現する。
論文 参考訳(メタデータ) (2020-05-06T11:03:05Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。