論文の概要: Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy
- arxiv url: http://arxiv.org/abs/2203.11068v1
- Date: Mon, 21 Mar 2022 15:45:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 17:26:03.835646
- Title: Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy
- Title(参考訳): クロスおよび単一センサカラーコンステンシーのための学習濃縮イルミナント
- Authors: Xiaodong Cun, Zhendong Wang, Chi-Man Pun, Jianzhuang Liu, Wengang
Zhou, Xu Jia, Houqiang Li
- Abstract要約: ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
- 参考スコア(独自算出の注目度): 182.4997117953705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Color constancy aims to restore the constant colors of a scene under
different illuminants. However, due to the existence of camera spectral
sensitivity, the network trained on a certain sensor, cannot work well on
others. Also, since the training datasets are collected in certain
environments, the diversity of illuminants is limited for complex real world
prediction. In this paper, we tackle these problems via two aspects. First, we
propose cross-sensor self-supervised training to train the network. In detail,
we consider both the general sRGB images and the white-balanced RAW images from
current available datasets as the white-balanced agents. Then, we train the
network by randomly sampling the artificial illuminants in a sensor-independent
manner for scene relighting and supervision. Second, we analyze a previous
cascaded framework and present a more compact and accurate model by sharing the
backbone parameters with learning attention specifically. Experiments show that
our cross-sensor model and single-sensor model outperform other
state-of-the-art methods by a large margin on cross and single sensor
evaluations, respectively, with only 16% parameters of the previous best model.
- Abstract(参考訳): カラーコンステンシーは、異なる照度の下でシーンの一定の色を復元することを目的としている。
しかし、カメラのスペクトル感度の存在により、特定のセンサーで訓練されたネットワークは、他のセンサーではうまく動作しない。
また、トレーニングデータセットは特定の環境で収集されるため、複雑な実世界の予測には照度の多様性が制限される。
本稿では2つの側面からこれらの問題に取り組む。
まず,ネットワークを学習するためのクロスセンサ自己教師付きトレーニングを提案する。
詳細は、現在利用可能なデータセットから得られる一般的なsRGB画像とホワイトバランスRAW画像の両方をホワイトバランスエージェントとして検討する。
そして,センサに依存しない方法で人工発光体をランダムにサンプリングして,シーンのリライティングと監視を行う。
第2に,従来のカスケードフレームワークを分析し,バックボーンパラメータを学習注意と共有することにより,よりコンパクトで正確なモデルを示す。
実験により,我々のクロスセンサモデルとシングルセンサモデルは,従来のベストモデルの16%のパラメータしか持たず,クロスセンサとシングルセンサの評価において,他の最先端手法よりも高いマージンを示した。
関連論文リスト
- The Change You Want to See (Now in 3D) [65.61789642291636]
本稿の目的は、同じ3Dシーンの2つの「野生」画像の間で何が変わったかを検出することである。
我々は,全合成データに基づいて学習し,クラスに依存しない変化検出モデルに貢献する。
我々は,人間に注釈を付けた実世界のイメージペアによる評価データセットを新たにリリースした。
論文 参考訳(メタデータ) (2023-08-21T01:59:45Z) - Reversed Image Signal Processing and RAW Reconstruction. AIM 2022
Challenge Report [109.2135194765743]
本稿では,AIM 2022 Challenge on Reversed Image Signal Processing and RAW Reconstructionを紹介する。
我々は,メタデータを使わずにRGBから生のセンサイメージを回収し,ISP変換を「逆」することを目的としている。
論文 参考訳(メタデータ) (2022-10-20T10:43:53Z) - GenISP: Neural ISP for Low-Light Machine Cognition [19.444297600977546]
低照度環境では、原画像データを用いた物体検出器は、ISPパイプラインで処理された画像データを用いた検出器よりも堅牢である。
我々は、デバイスに依存しないカラー空間にカラー空間変換を明示的に組み込んだ、マシン認知のための最小限のニューラルISPパイプラインGenISPを提案する。
論文 参考訳(メタデータ) (2022-05-07T17:17:24Z) - Transform your Smartphone into a DSLR Camera: Learning the ISP in the
Wild [159.71025525493354]
本稿では,スマートフォンが取得したRAW画像に基づいて,DSLRの品質画像を生成する訓練可能な画像信号処理フレームワークを提案する。
トレーニング画像ペア間の色ずれに対処するために、カラー条件ISPネットワークを使用し、各入力RAWと基準DSLR画像間の新しいパラメトリック色マッピングを最適化する。
論文 参考訳(メタデータ) (2022-03-20T20:13:59Z) - Model-Based Image Signal Processors via Learnable Dictionaries [6.766416093990318]
デジタルカメラは画像信号処理装置(ISP)を用いてRAW読み出しをRGB画像に変換する
近年のアプローチでは、RGBからRAWマッピングを推定することで、このギャップを埋めようとしている。
本稿では,学習可能かつ解釈可能なハイブリッド・モデルベースかつデータ駆動型ISPを提案する。
論文 参考訳(メタデータ) (2022-01-10T08:36:10Z) - Semi-Supervised Raw-to-Raw Mapping [19.783856963405754]
カメラセンサーの生RGB色は、異なるセンサーのメーカーやモデル間のスペクトル感度の違いによって異なる。
本稿では,各カメラ装置が捉えた画像とペア画像の小さなセットで訓練した半教師付き生-生-生のマッピング手法を提案する。
論文 参考訳(メタデータ) (2021-06-25T21:01:45Z) - Illumination Estimation Challenge: experience of past two years [57.13714732760851]
第2回照明推定チャレンジ(IEC#2)を行った。
チャレンジには、一般的なもの、屋内のもの、照明が2つあり、それぞれ異なるシーンのパラメーターに焦点を当てていた。
他の主な特徴は、同じカメラセンサーモデルで撮影された画像の新しい大規模なデータセット(約5000)、各画像に付随する手動マークアップ、SpyderCubeキャリブレーションオブジェクトを使用して抽出されたさまざまな照明の下で多くの国で撮影されたシーンの多様なコンテンツ、IEC#1で使用されたCube+データセットからの画像のコンテストのようなマークアップです。
論文 参考訳(メタデータ) (2020-12-31T17:59:19Z) - Polarization-driven Semantic Segmentation via Efficient
Attention-bridged Fusion [6.718162142201631]
EAFNetは、異なる光学センサから得られる補完情報を利用する、効率的な注意ブリッジ型核融合ネットワークである。
394画素対応RGB-Polarization画像からなる最初のRGB-Pデータセットを構築した。
総合的な実験では、偏光とRGB情報を融合するEAFNetの有効性が示されている。
論文 参考訳(メタデータ) (2020-11-26T14:32:42Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - A Multi-Hypothesis Approach to Color Constancy [22.35581217222978]
現在のアプローチは、カメラ固有の照度マッピングを学習する際の色濃度の問題である。
本稿では,マルチハイプセシス戦略を用いて,自然に色相のあいまいさを処理できるベイズ的枠組みを提案する。
提案手法は,リアルタイムな実行を維持しつつ,複数の公開データセットに対して最先端の精度を提供する。
論文 参考訳(メタデータ) (2020-02-28T18:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。