論文の概要: CLCC: Contrastive Learning for Color Constancy
- arxiv url: http://arxiv.org/abs/2106.04989v1
- Date: Wed, 9 Jun 2021 11:16:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 23:47:33.701925
- Title: CLCC: Contrastive Learning for Color Constancy
- Title(参考訳): CLCC:カラーコンテントのためのコントラストラーニング
- Authors: Yi-Chen Lo, Chia-Che Chang, Hsuan-Chao Chiu, Yu-Hao Huang, Chia-Ping
Chen, Yu-Lin Chang, Kevin Jou
- Abstract要約: カラー一貫性のための新しいコントラスト学習フレームワークであるCLCCを提案する。
我々は,新規な原ドメインカラー増色法により,照度依存性の優れた特徴を学習するための効果的なコントラストペアを構築した。
提案手法は,上位のディープラーニング手法と比較して,パラメータを3倍に抑えることで,Gehlerデータセット上での競合性能を実現する。
- 参考スコア(独自算出の注目度): 8.418901567909499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present CLCC, a novel contrastive learning framework for
color constancy. Contrastive learning has been applied for learning
high-quality visual representations for image classification. One key aspect to
yield useful representations for image classification is to design illuminant
invariant augmentations. However, the illuminant invariant assumption conflicts
with the nature of the color constancy task, which aims to estimate the
illuminant given a raw image. Therefore, we construct effective contrastive
pairs for learning better illuminant-dependent features via a novel raw-domain
color augmentation. On the NUS-8 dataset, our method provides $17.5\%$ relative
improvements over a strong baseline, reaching state-of-the-art performance
without increasing model complexity. Furthermore, our method achieves
competitive performance on the Gehler dataset with $3\times$ fewer parameters
compared to top-ranking deep learning methods. More importantly, we show that
our model is more robust to different scenes under close proximity of
illuminants, significantly reducing $28.7\%$ worst-case error in data-sparse
regions.
- Abstract(参考訳): 本稿では,カラー一貫性のための新しいコントラスト学習フレームワークであるCLCCを提案する。
コントラスト学習は画像分類のための高品質な視覚表現の学習に応用されている。
画像分類に有用な表現を与える一つの重要な側面は、照度不変拡張を設計することである。
しかし、照度不変の仮定は、原画像が与えられた照度を推定することを目的としたカラーコンステンシータスクの性質と矛盾する。
そこで本研究では,新しいraw-domainカラー増色法を用いて,より優れたイルミナント依存特徴を学習するための効果的なコントラストペアを構築する。
nus-8データセットでは、強力なベースラインに対して7.5\%$の相対的改善を行い、モデルの複雑さを増すことなく、最先端のパフォーマンスを達成する。
さらに,gehlerデータセット上では,上位のディープラーニング法と比較して,パラメータが3\times$少ないという競合性能を実現している。
さらに重要なことは、我々のモデルは、照度が近い異なるシーンでより堅牢であることを示し、データスパース領域における最悪のケースエラーを2,8.7 %削減する。
関連論文リスト
- Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - ClassLIE: Structure- and Illumination-Adaptive Classification for
Low-Light Image Enhancement [17.51201873607536]
本稿では,CNN と変換器のポテンシャルを組み合わせた新しいフレームワーク ClassLIE を提案する。
低照度画像から、全体的かつ局所的に構造的および照明的情報を分類し、適応的に学習する。
5つのベンチマークデータセットの実験は、私たちのClassLIEが新しい最先端のパフォーマンスを達成することを一貫して示しています。
論文 参考訳(メタデータ) (2023-12-20T18:43:20Z) - Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition [4.175396687130961]
本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
論文 参考訳(メタデータ) (2023-11-06T09:57:48Z) - Joint Correcting and Refinement for Balanced Low-Light Image Enhancement [26.399356992450763]
より効果的に明るさ、色、照明のバランスをとることができる新しい構造が提案されている。
JCRNet(Joint Correcting and Refinement Network)は主に、明るさ、色、照明の輝度のバランスをとるための3つのステージで構成されている。
論文 参考訳(メタデータ) (2023-09-28T03:16:45Z) - Semantically Contrastive Learning for Low-light Image Enhancement [48.71522073014808]
低照度画像強調(LLE)は、単一のRGB画像の低コントラストと低可視性の問題が好ましくないため、依然として困難である。
LLE(SCL-LLE)のための効果的な意味論的コントラスト学習パラダイムを提案する。
提案手法は6つの独立したクロスシーンデータセット上で,最先端のLLEモデルを上回る。
論文 参考訳(メタデータ) (2021-12-13T07:08:33Z) - A Practical Contrastive Learning Framework for Single-Image
Super-Resolution [51.422185656787285]
コントラスト学習に基づく単一画像の超解像を2つの視点から検討する。
SISR のための実践的コントラスト学習フレームワーク PCL-SR を提案する。
既存のベンチマーク手法と比較して,提案手法をPCL-SRフレームワークで再学習し,優れた性能を実現する。
論文 参考訳(メタデータ) (2021-11-27T15:42:12Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。