論文の概要、ライセンス

# (参考訳) CLCC:カラーコンテントのためのコントラストラーニング [全文訳有]

CLCC: Contrastive Learning for Color Constancy ( http://arxiv.org/abs/2106.04989v1 )

ライセンス: CC BY 4.0
Yi-Chen Lo, Chia-Che Chang, Hsuan-Chao Chiu, Yu-Hao Huang, Chia-Ping Chen, Yu-Lin Chang, Kevin Jou(参考訳) 本稿では,カラー一貫性のための新しいコントラスト学習フレームワークであるCLCCを提案する。 コントラスト学習は画像分類のための高品質な視覚表現の学習に応用されている。 画像分類に有用な表現を与える一つの重要な側面は、照度不変拡張を設計することである。 しかし、照度不変の仮定は、原画像が与えられた照度を推定することを目的としたカラーコンステンシータスクの性質と矛盾する。 そこで本研究では,新しいraw-domainカラー増色法を用いて,より優れたイルミナント依存特徴を学習するための効果的なコントラストペアを構築する。 nus-8データセットでは、強力なベースラインに対して7.5\%$の相対的改善を行い、モデルの複雑さを増すことなく、最先端のパフォーマンスを達成する。 さらに,gehlerデータセット上では,上位のディープラーニング法と比較して,パラメータが3\times$少ないという競合性能を実現している。 さらに重要なことは、我々のモデルは、照度が近い異なるシーンでより堅牢であることを示し、データスパース領域における最悪のケースエラーを2,8.7 %削減する。

In this paper, we present CLCC, a novel contrastive learning framework for color constancy. Contrastive learning has been applied for learning high-quality visual representations for image classification. One key aspect to yield useful representations for image classification is to design illuminant invariant augmentations. However, the illuminant invariant assumption conflicts with the nature of the color constancy task, which aims to estimate the illuminant given a raw image. Therefore, we construct effective contrastive pairs for learning better illuminant-dependent features via a novel raw-domain color augmentation. On the NUS-8 dataset, our method provides $17.5\%$ relative improvements over a strong baseline, reaching state-of-the-art performance without increasing model complexity. Furthermore, our method achieves competitive performance on the Gehler dataset with $3\times$ fewer parameters compared to top-ranking deep learning methods. More importantly, we show that our model is more robust to different scenes under close proximity of illuminants, significantly reducing $28.7\%$ worst-case error in data-sparse regions.
公開日: Wed, 9 Jun 2021 11:16:31 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
CLCC: Contrastive Learning for Color Constancy CLCC:カラーコンテントのためのコントラストラーニング 0.80
Yi-Chen Lo*, Chia-Che Chang*, Hsuan-Chao Chiu, Yu-Hao Huang, Yi-Chen Lo*, Chia-Che Chang*, Hsuan-Chao Chiu, Yu-Hao Huang 0.87
Chia-Ping Chen, Yu-Lin Chang, Kevin Jou Chia-Ping Chen, Yu-Lin Chang, Kevin Jou 0.81
MediaTek Inc., Hsinchu, Taiwan mediatek, hsinchu, taiwan 0.58
{yichen.lo, chia-che.chang, Hsuanchao.Chiu, justin-yh.huang, iichen.lo, chia-che.chang, Hsuanchao.Chiu, Justin-yh.huang, 0.52
chiaping.chen, yulin.chang, kevin.jou}@mediatek.com chiaping.chen, yulin.chang, kevin.jou}@mediatek.com 0.62
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] V C . 9 ] 略称はC。 0.73
s c [ 1 v 9 8 9 4 0 sc [ 1 v 9 8 9 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract In this paper, we present CLCC, a novel contrastive learning framework for color constancy. 概要 本稿では,カラー一貫性のための新しいコントラスト学習フレームワークであるCLCCを提案する。 0.63
Contrastive learning has been applied for learning high-quality visual representations for image classification. コントラスト学習は画像分類のための高品質な視覚表現の学習に応用されている。 0.67
One key aspect to yield useful representations for image classification is to design illuminant invariant augmentations. 画像分類に有用な表現を与える一つの重要な側面は、照度不変拡張を設計することである。 0.60
However, the illuminant invariant assumption conflicts with the nature of the color constancy task, which aims to estimate the illuminant given a raw image. しかし、照度不変の仮定は、原画像が与えられた照度を推定することを目的としたカラーコンステンシータスクの性質と矛盾する。 0.70
Therefore, we construct effective contrastive pairs for learning better illuminant-dependent features via a novel raw-domain color augmentation. そこで本研究では,新しいraw-domainカラー増色法を用いて,より優れたイルミナント依存特徴を学習するための効果的なコントラストペアを構築する。 0.47
On the NUS-8 dataset, our method provides 17.5% relative improvements over a strong baseline, reaching state-of-the-art performance without increasing model complexity. nus-8データセットでは、強力なベースラインに対して17.5%の相対的な改善を行い、モデルの複雑さを増すことなく最先端のパフォーマンスを達成している。 0.50
Furthermore, our method achieves competitive performance on the Gehler dataset with 3× fewer parameters compared to top-ranking deep learning methods. さらに,gehlerデータセットにおいて,上位レベルの深層学習法に比べて3倍少ないパラメータで競合性能を実現する。 0.70
More importantly, we show that our model is more robust to different scenes under close proximity of illuminants, significantly reducing 28.7% worstcase error in data-sparse regions. さらに重要なことは、我々のモデルは、照度が近い異なるシーンに対してより堅牢であることを示し、データスパース領域における28.7%の最悪のエラーを著しく低減している。 0.63
Our code is available at https://github.com/h owardyclo/clcc-cvpr2 1. 私たちのコードはhttps://github.com/h owardyclo/clcc-cvpr2 1で利用可能です。 0.40
1. Introduction The human visual system can perceive the same canonical color of an object even under different illuminants. 1. はじめに 人間の視覚システムは、異なる照度の下でも、物体の同じ標準色を知覚することができる。 0.70
This feature can be mimicked by computational color constancy, an essential task in the camera pipeline that processes raw sensor signals to sRGB images. この機能は、生のセンサー信号をsrgbイメージに処理するカメラパイプラインで不可欠なタスクである計算カラーコンステンシーによって模倣することができる。 0.78
Conventional methods [10, 20, 21, 40, 60] utilize statistical properties of the scene to cope with this ill-posed problem, such as the most widely used gray world assumption. 従来の手法(10,20,21,40,60)は,最も広く用いられているグレーワールド仮定などの不適切な問題に対処するために,シーンの統計的特性を利用する。 0.72
Such statistical methods, however, often fail where their assumptions are violated in complex scenes. しかし、そのような統計的手法は、複雑な場面で仮定が破られ、しばしば失敗する。 0.61
* Indicates equal contribution. ※対等な貢献を示す。 0.57
Figure 1: Our main idea of CLCC: The scene-invariant, illuminant-dependent representation of the same scene under different illuminants should be far from each other, while different scenes under the same illuminant should be close to each other. 図1:clccの主な考え方:異なる照度の下で同じシーンのシーン不変で照度依存的な表現は互いに遠く、同じ照度の下で異なるシーンは互いに近いはずである。
訳抜け防止モード: 図1:CLCCの考え方 : 現場 -invariant,illuminan t- 異なる照明下での同じシーンの 依存表現は 互いに遠く離れるべきです 同じ照明下で異なるシーンが 互いに近いはずだ
0.73
Until recently, deep learning based methods [31, 48, 66, 67] have been applied to the color constancy problem and achieve considerable quality improvements on challenging scenes. 近年まで,深層学習に基づく手法 (31, 48, 66, 67) がカラーコンテンシー問題に適用され, 課題場面において相当な品質改善を達成している。 0.79
Yet, this ill-posed and sensor-dependent task still suffers from the difficulty of collecting massive paired data for supervised training. しかし、この不適切なセンサーに依存したタスクは、教師付きトレーニングのために大量のデータを集めることの難しさに悩まされている。 0.48
When learning with insufficient training data, a common issue frequently encountered is the possibility of learning spurious correlations [62] or undesirable biases from data [59]: misleading features that work for most training samples but do not always hold in general. 不十分なトレーニングデータで学習する場合、しばしば遭遇する共通の問題は、データから[62]または望ましくないバイアスを学習する可能性があることだ [59]: ほとんどのトレーニングサンプルで機能するが、一般的には保持されない誤解を招く機能。 0.72
For instance, previous research has shown that a deep object-recognition model may rely on the spuriously correlated background instead of the foreground object to make predictions [65] or be biased towards object textures instead of shapes [24]. 例えば、過去の研究では、深層オブジェクト認識モデルは、[65]を予測したり、[24]ではなくオブジェクトテクスチャに偏ったりするために、前景オブジェクトの代わりに刺激的に相関した背景に依存する可能性があることが示されている。 0.60
In the case of color constancy, outdoor scenes often have higher correlations with high color temperature illuminants than indoor scenes. 室内環境の場合,屋外のシーンは室内のシーンよりも高温照度と高い相関関係を持つことが多い。 0.74
Thus, deep learning models may focus on scene related features instead of illuminant related features. したがって、ディープラーニングモデルは照明関連機能ではなくシーン関連機能にフォーカスすることができる。 0.63
FarFarCloseCloseInpu tOutputRepresentatio n FarFarCloseInputOutp utRepresentation 0.18
英語(論文から抽出)日本語訳スコア
This leads to a decision behavior that tends to predict high color temperature illuminants for outdoor scenes, but suffers high error on outdoor scenes under low color temperature illuminants. これにより、屋外シーンの高色温度イルミネートを予測する傾向があるが、低色温度イルミネート下では屋外シーンで高い誤差を被る。
訳抜け防止モード: これは決定行動につながります 屋外シーンの高色温度照度を 予測しがちです しかし、低色温度の照明下では屋外のシーンでは高い誤差を被る。
0.70
This problem becomes worse when the sparsity of data increases. この問題はデータのスパーシティが増加すると悪化する。 0.71
To avoid learning such spurious correlations, one may seek to regularize deep learning models to learn sceneinvariant, illuminant-dependent representations. このようなスプリアス相関の学習を避けるために、ディープラーニングモデルを正則化し、シーン不変で照度に依存しない表現を学ぶことができる。 0.51
As illustrated in Fig 1, in contrast to image classification problem, the representation of the same scene under different illuminants should be far from each other. 図1に示すように、画像分類問題とは対照的に、異なる照明下での同じシーンの表現は互いに遠く離れるべきである。 0.82
On the contrary, the representation of different scenes under the same illuminant should be close to each other. 反対に、同一の照度の下で異なるシーンの表現は互いに近接するべきである。 0.72
Therefore, we propose to learn such desired representations by contrastive learning [13, 27, 30], a framework that learns general and robust representations by comparing similar and dissimilar samples. そこで本研究では,類似点と類似点の比較により,一般表現とロバスト表現を学習するフレームワークであるコントラスト学習 [13,27,30] を用いて,所望の表現を学習することを提案する。 0.67
However, conventional self-supervised contrastive learning often generates easy or trivial contrastive pairs that are not very useful for learning generalized feature representations [37]. しかし、従来の自己教師付きコントラスト学習は、一般化された特徴表現を学習するのにあまり役に立たない、簡単あるいは自明なコントラスト学習を生成する[37]。 0.60
To address this issue, a recent work [13] has demonstrated that strong data augmentation is crucial for conducting successful contrastive learning. この問題に対処するために、[13]最近の研究は、強力なデータ拡張がコントラスト学習の成功に不可欠であることを実証した。
訳抜け防止モード: この問題に対処する。 最近の作品[13 ]は コントラスト学習を成功させるには 強力なデータ拡張が不可欠です
0.68
Nevertheless, previous data augmentations that have been shown effective for image classification may not be suitable for color constancy. それにもかかわらず、画像分類に有効であることを示す以前のデータ拡張は、カラーコンテンシーには適さないかもしれない。 0.64
Here we illustrate some of them. ここではそれらのいくつかを説明します。 0.51
First, most previous data augmentations in contrastive learning are designed for high-level vision tasks (e g , object recognition) and seek illuminant invariant features, which can be detrimental for color constancy. 第一に、コントラスト学習における以前のデータ拡張は、高レベルな視覚タスク(例えば、オブジェクト認識)用に設計され、色コンテンシーに有害な照度の低い不変特徴を求める。 0.78
For example, color dropping converts an sRGB image to a gray-scale one, making the color constancy task even more difficult. 例えば、カラードロップは、sRGBイメージをグレースケールの画像に変換するため、色の一貫性タスクをさらに難しくする。 0.84
Moreover, the color constancy task works best in the linear color space where the linear relationship to scene radiance is preserved. さらに、シーンの輝度との線形関係が保存される線形色空間において、色濃度タスクが最適である。 0.77
This prevents from using non-linear color jittering augmentations, e g , contrast, saturation, and hue. これにより、例えば、コントラスト、飽和、色調など、非線形色ジッタリングの増大が防止される。 0.66
To this end, we propose CLCC: Contrastive Learning for Color Constancy, a novel color constancy framework with contrastive learning. そこで本研究では,カラーコンステンシーのためのコントラスト学習,コントラスト学習を用いた新しいカラーコンステンシーフレームワークを提案する。 0.72
For the purpose of color constancy, effective positive and negative pairs are constructed by exploiting the label information, while novel color augmentations are designed based on color domain knowledge [2, 49, 36]. カラー一貫性のため、ラベル情報を利用して有効正と負のペアを構築し、カラードメイン知識(2,49,36)に基づいて新規なカラー拡張を設計する。
訳抜け防止モード: 色一貫性のため、ラベル情報を利用して有効正対と負対を構築する。 カラードメインの知識に基づいて 新たなカラー拡張が設計されています [2,49,36]
0.78
Built upon a previous state-of-the-art [31], CLCC provides additional 17.5% improvements (mean angular error decreases from 2.23 to 1.84) on a public benchmark dataset [14], achieving state-of-the-art results without increasing model complexity. CLCCは以前の最先端[31]に基づいて構築され、パブリックベンチマークデータセット[14]で17.5%の改善(角エラーは2.23から1.84まで減少する)を提供し、モデルの複雑さを増すことなく最先端の結果を達成する。 0.61
Besides accuracy improvement, our method also allows deep learning models to effectively acquire robust and generalized representations even when learning from small training datasets. 精度の向上に加えて,本手法では,小規模な学習データセットから学習した場合でも,より堅牢で汎用的な表現を効果的に取得することができる。 0.58
Contribution We introduce CLCC, a fully supervised contrastive learning framework for the task of color constancy. コントリビューション CLCC は,カラー一貫性のタスクのための,完全に教師付きコントラスト学習フレームワークである。 0.72
By leveraging label information, CLCC generates more di- ラベル情報を活用することにより、CLCC はより多くの di- を生成する 0.50
verse and harder contrastive pairs to effectively learn feature representations aiming for better quality and robustness. より優れた品質と堅牢性を目的とした特徴表現を効果的に学習する。 0.69
A novel color augmentation method that incorporates color domain knowledge is proposed. カラードメイン知識を取り入れた新しいカラー拡張手法を提案する。 0.68
We improve the previous stateof-the-art deep color constancy model without increasing model complexity. 従来の深層カラーコンステンシーモデルを改善し,モデルの複雑さを増すことなく改善する。 0.71
CLCC encourages learning illuminantdependent features rather than spurious scene content features irrelevant for color constancy, making our model more robust and generalized, especially in data-sparse regions. CLCCは,特にデータスパース領域において,カラーコンスタンスに関係のない刺激的なシーンコンテンツ特徴よりも,照度に依存しない特徴の学習を奨励する。 0.73
2. Related Work 2.1. 2. 関連作業2.1。 0.78
Contrastive learning Contrastive learning is a framework that learns general and robust feature representations by comparing similar and dissimilar pairs. コントラスト学習 コントラスト学習(con contrastive learning)は、類似点と類似点を比較することによって、一般的でロバストな特徴表現を学ぶフレームワークである。
訳抜け防止モード: コントラスト学習 対照的な学習は 類似点と類似点を比較することで、一般的でロバストな特徴表現を学ぶ。
0.66
Inspired from noise contrastive estimation (NCE) and N-pair loss [26, 45, 55], remarkable improvements on image classification are obtained in several recent works [13, 27, 30, 43, 57, 61, 63]. ノイズコントラスト推定 (NCE) とNペア損失 [26, 45, 55] からインスパイアされた画像分類の顕著な改善が, 最近のいくつかの研究[13, 27, 30, 43, 57, 61, 63] で得られた。 0.82
Particularly, a mutual information based contrastive loss, InfoNCE [61] has become a popular choice for contrastive learning (see [44, 47] for more discussion). 特に相互情報に基づくコントラストロス,infonce [61] は,コントラスト学習において一般的な選択肢となっている(詳細は [44, 47] を参照)。 0.78
Furthermore, recent works [3, 7, 16, 29, 37, 58] have shown that leveraging supervised labels not only improves learning efficiency by alleviating sampling bias (and hence reducing the need for large batch size training) but also improves generalization by learning task-relevant features. さらに,近年の3,7,16,29,37,58の研究では,教師付きラベルの活用は,サンプリングバイアスを緩和することで学習効率を向上するだけでなく,タスク関連特徴の学習による一般化も向上することが示されている。 0.75
2.2. Data augmentation 2.2. データ拡張 0.70
Data augmentations such as random cropping, flipping, and rotation have been widely used in classification [28, 51], object detection [42], and semantic segmentation [12] to improve model quality. ランダムトリミング,フリップ,ローテーションなどのデータ拡張は,モデル品質を改善するために,[28,51],オブジェクト検出[42],セマンティックセグメンテーション[12]の分類に広く利用されている。 0.80
Various works rely on manually designed augmentations to reach their best results [13, 52]. 様々な作品が、最高の結果を得るために手作業で設計した拡張に依存しています [13, 52]。 0.56
To ease such efforts, strategy search [17, 18] or data synthesis [46, 68] have been used to improve data quality and diversity. 戦略探索 [17, 18] やデータ合成 [46, 68] はデータ品質と多様性を向上させるために用いられている。 0.80
However, popular data augmentation strategies for image recognition [13, 17, 34, 50] (e g , color channel dropping, color channel swapping, HSV jittering) may not be suitable for the color constancy task. しかし、画像認識[13, 17, 34, 50](例えば、色チャネルドロップ、色チャネルスワップ、HSVジッタリング)のための一般的なデータ拡張戦略は、色一貫性タスクには適さないかもしれない。 0.78
Thus, we incorporate color domain knowledge [2, 36, 49] to design data augmentation suitable for contrastive learning on color constancy. そこで,色領域の知識[2, 36, 49]を取り入れ,色領域のコントラスト学習に適したデータ拡張を設計する。 0.84
2.3. Color constancy 2.3. 彩色コンステンシー 0.66
Color constancy is a fundamental low-level computer vision task that has been studied for decades. カラー一貫性は、数十年にわたって研究されてきた基本的な低レベルコンピュータビジョンタスクである。 0.63
In general, current research can be divided into learning-free and learningbased approaches. 一般に、現在の研究は学習フリーアプローチと学習ベースアプローチに分けられる。 0.74
The former ones use color histogram and spatial information to estimate illuminant [10, 20, 21, 40, 60]. 前者は,色ヒストグラムと空間情報を用いて照度 [10,20,21,40,60] を推定した。 0.81
Despite the efficiency of these methods, they do not perform well on challenging scenes with ambiguous color pixels. これらの手法の効率性にもかかわらず、不明瞭な色画素を持つ挑戦的なシーンではうまく機能しない。 0.64
The latter ones adopt data-driven approaches that learn to estimate illuminant from training data [4, 6, 19, 22, 32]. 後者は、トレーニングデータ[4, 6, 19, 22, 32]から照度を推定することを学ぶデータ駆動アプローチを採用する。 0.75
These learning-based approaches outperform learning-free 学習に基づくアプローチは学習自由度を上回る 0.53
英語(論文から抽出)日本語訳スコア
ticular range of spectrum from a camera sensor: カメラセンサからのticular range of spectrum: 0.80
(cid:90) ω (cid:90) ω 0.82
Iraw(x) = Rc(λ)S(x, λ)L(λ)dλ iraw(x) = Rc(λ)S(x, λ)L(λ)dλ 0.86
(1) where λ denotes the wavelength, ω ∈ [380, 720] (nm) is the visible spectrum, Rc is the spectral sensitivities of the sensor’s color channel c ∈ {r, g, b}. 1) λ が波長を表し、ω ∈ [380, 720] (nm) が可視スペクトルであるとき、rc はセンサーの色チャネル c ∈ {r, g, b} のスペクトル感受性である。
訳抜け防止モード: (1 ) ここで λ は波長 ω ∈ [ 380, を表す。 720 ] (nm ) は可視スペクトルであり、rc はセンサーのカラーチャネル c ∈ { r, のスペクトル感度である。 g , b } である。
0.85
The term S(x, λ) denotes the scene’s material reflectance at pixel x and L(λ) is the illuminant in the scene, assumed to be spatially uniform. s(x, λ) はピクセル x におけるシーンの物質反射率を表し、l(λ) はシーン内の照度であり、空間的に一様であると仮定される。 0.74
Notably, Iraw values are linearly proportional to the scene radiance, making color constancy easier to work with. 特に、Iraw値はシーンの放射率に線形に比例し、色の安定度を容易に扱える。 0.71
Figure 2: An overview of our CLCC: Besides the main color constancy task, we propose to incorporate contrastive learning to learn generalized and illuminant-dependent feature representations. 図2: CLCCの概要: メインカラーコンスタンスタスクに加えて, コントラスト学習を取り入れ, 一般化および照度に依存した特徴表現を学習することを提案する。 0.83
methods and have become popular in both academic and industry fields. 学術分野でも産業分野でも 普及しています 0.64
In addition, recent works have shown that features learned from deep neural networks are better than hand-crafted ones [39, 41, 50]. さらに、最近の研究では、ディープニューラルネットワークから学んだ機能は手作りのものよりも優れていることが示されている[39,41,50]。 0.64
Consequently, deep learning based color constancy research has gradually received more and more attention. その結果,深層学習に基づくカラーコンステンシー研究が徐々に注目されている。 0.74
Recently, FC4 uses ImageNetpretrained backbones [31, 39] to prevent over-fitting and estimate illuminant with two additional convolutional layers. 最近、FC4はImageNetpretrained backbones [31, 39]を使用して、追加の2つの畳み込み層で過度に適合し、照度を推定している。
訳抜け防止モード: 最近、FC4はImageNetpretrained backbones [31, 39 ]を使っている。 2つの追加の畳み込み層による過収着防止及び照度推定を行う。
0.60
RCC-Net [48] uses a convolutional LSTM to extract features in both spatial and temporal domains to estimate illuminants. RCC-Net[48]は、畳み込みLSTMを使用して、空間領域と時間領域の両方の特徴を抽出し、照度を推定する。
訳抜け防止モード: RCC - Net [48 ] は畳み込みLSTMを使用する 空間領域と時間領域の両方の特徴を抽出し 発光物質を推定します
0.69
C4 [67] proposes a cascaded, coarse-to-fine network for color constancy, stacking three SqueezeNets to improve model quality. C4[67]は、3つのSqueezeNetを積み重ねてモデル品質を改善することで、カスケードで粗い色のネットワークを提案する。 0.67
To mitigate the issue that the learned representation suffers from being sensitive to image content, IGTN [66] introduces metric learning to learn scene-independent illuminant features. igtn [66]は、学習表現が画像内容に敏感であるという問題を緩和するため、シーン非依存の照度特徴を学習するためにメトリック学習を導入する。 0.64
From a different perspective, most learning based methods strongly bind to a single sensor’s spectral sensitivity and thus cannot be generalized to other camera sensors without fine-tuning. 異なる視点から見ると、ほとんどの学習ベースの手法は単一のセンサーのスペクトル感度に強く結合するので、微調整することなく他のカメラセンサーに一般化することはできない。 0.72
Several works [1, 33, 64] have attempted to resolve this issue by training on multiple sensors simultaneously. 複数のセンサーを同時にトレーニングすることで、この問題を解決しようと試みている[1, 33, 64]。 0.77
We note that multi-sensor training is out of the scope of this work, hence we do not compare to this line of research. マルチセンサートレーニングは、この研究の範囲外であることに留意し、この一連の研究とは比較しない。
訳抜け防止モード: マルチセンサートレーニングはこの作業の範囲外である点に注意が必要だ。 ですから この研究のラインとは 比べません
0.72
Color space conversions Usually Iraw undergoes two color space conversions in the camera pipeline: カラー空間変換 通常、Irawはカメラパイプラインで2つのカラー空間変換を行う。 0.74
IsRGB = GXYZ→sRGB(Fraw→XYZ(Iraw)) IsRGB = GXYZ→sRGB(Fraw→XYZ(Iraw)) 0.84
(2) where F(·) involves linear operations including white balance and full color correction. 2) ここで f(·) はホワイトバランスとフルカラー補正を含む線形演算を含む。 0.86
F(·) maps a sensor-specific raw-RGB to a standard perceptual color space such as CIE XYZ. F(·)はセンサ固有の生RGBをCIE XYZのような標準的な知覚色空間にマッピングする。 0.71
G(·) involves non-linear photo-finishing procedures (e g , contrast, hue, saturation) and eventually maps XYZ to the sRGB color space (we refer to [35] for a complete overview of camera imaging pipeline). G(·) は非線形フォトフィニッシュ手順(例えば、コントラスト、色調、彩度)を伴い、最終的に XYZ を sRGB 色空間にマッピングする(カメラ画像パイプラインの完全な概要については [35] を参照)。 0.83
White balance and full color correction Given Iraw, white balance (WB) aims to estimate the scene illuminant L = [Lr, Lg, Lb], i.e., the color of a neutral material captured with a physical color checker placed in the scene. ホワイトバランスとフルカラー補正 iraw, white balance (wb) は、シーンの照度 l = [lr, lg, lb]、すなわちシーンに物理的なカラーチェッカーが置かれた中性物質の色を推定することを目的としている。 0.78
Knowing that a neutral material equally reflects spectral energy at every wavelength regardless of different illuminants, we can apply a 3 × 3 diagonal matrix MWB with the diagonal entries [Lg/Lr, 1, Lg/Lb] on Iraw to obtain a white-balanced image IWB: 中立物質は、異なる照度によらず、各波長のスペクトルエネルギーを等しく反映していることを知り、3×3対角行列MWBに対角成分[Lg/Lr, 1, Lg/Lb]を印加してホワイトバランス画像IWBを得る。 0.81
IWB = IrawMWB IWB = IrawMWB 0.85
(3) After WB, a neutral material should appear achormatic (i.e., “gray”). (3) wbの後、中性物質はアコラマティック(すなわち「灰色の」)に現われるべきである。 0.75
Because WB only corrects achromatic colors, a 3×3 full color correction matrix MCC is further applied to correct chromatic colors (in practice, those chromatic patches with known CIE XYZ values on color checker). WBは無彩色のみを補正するため、3×3の完全色補正行列MCCが色色補正にさらに適用される(実際には、色チェッカーのCIE XYZ値が既知の色パッチ)。 0.86
Note that MCC is illuminant-specific due to error introduced by the estimated MWB 推定MWBによる誤差によるMCCの発光特性について 0.67
IXYZ = IWBMCC IXYZ = IWBMCC 0.85
(4) Such IXYZ is sensor-agnostic since the illuminant cast is completely removed for both achromatic and chromatic colors. (4) このようなIXYZは、無彩色と彩色の両方で照射剤キャストを完全に除去するため、センサに依存しない。
訳抜け防止モード: (4) このようなIXYZはセンサではない。 無彩色と彩色の両方で 照明が完全に取り除かれます
0.68
3. Preliminaries 4. Methodology 3. 予科 4. 方法論 0.70
Image formation model A raw-RGB image can be viewed as a measurement of scene radiance within a par- 画像形成モデル RGB画像はパー内のシーン放射率の測定として見ることができる。 0.81
We start with our problem formulation and review conventional self-supervised contrastive learning in Section 4.1. まず,従来の自己指導型コントラスト学習を4.1節で検討する。 0.63
Contrastive Learning(Section 4.2)MaximizeMinimize (Section 4.3)(Section 4.3)Color Constancy(Section 4.1)Color Aug.Color Aug.Estimated IlluminantGround Truth Contrastive Learning(Section 4.2) MaximizeMinimize(Sec tion 4.3)(Section 4.3)Color Constancy(Section 4.1)Color Aug.Color Aug.Estimated IlluminantGround Truth 0.81
英語(論文から抽出)日本語訳スコア
Next, we introduce CLCC, our fully-supervised contrastive learning framework for color constancy in Section 4.2. 次に,第4章2節で色一貫性のフル教師付きコントラスト学習フレームワークであるCLCCを紹介する。 0.66
Finally, we describe our color augmentation for contrastive pair synthesis in Section 4.3. 最後に,4.3節において,コントラッシブなペア合成のための色増強について述べる。 0.59
How these sections fit together is illustrated in Fig 2. これらのセクションの適合性を図2に示します。 0.69
4.1. Formulation The learning problem Our problem setting follows the majority of learning-based color constancy research which only focuses on the white balance step of estimating the illuminant L from the input raw image Iraw: 4.1. 定式化 学習問題 我々の問題設定は、入力された原画像Irawから照度Lを推定するホワイトバランスステップのみに焦点を当てた学習ベースカラーコンステランシー研究の大多数に追従する。 0.79
ˆL = fφ(hθ(Iraw)) L = fφ(hθ(Iraw)) 0.91
(5) where hθ is the feature extractor that produces visual representations for Iraw, fφ is the illuminant estimation function, and ˆL is the estimated illuminant. (5) hθ はイラウの視覚的表現を生成する特徴抽出器であり、fφ は照度推定関数であり、eL は推定照度推定関数である。 0.78
Both hθ and fφ are parameterized by deep neural networks with arbitrary architecture design, where θ and φ can be trained via back-propagation. hθ と f φ は、任意のアーキテクチャ設計のディープニューラルネットワークによってパラメータ化され、θ と φ はバックプロパゲーションによって訓練することができる。 0.66
The learning objectives The overall learning objective can be decomposed into two parts: (1) illuminant estimation for color constancy and (2) contrastive learning for better representations (as shown in Fig 2): 学習目的 総合的な学習対象は、(1)色の一貫性の照度推定と(2)より良い表現のためのコントラスト学習の2つの部分に分けられる(図2)。 0.81
Ltotal = λLilluminant + βLcontrastive Ltotal = λLilluminant + βLcontrastive 0.88
(6) For the illuminant estimation task, we use the commonly used angular error as: (6) 照度推定タスクでは、よく使われる角誤差を次のように使用する。 0.76
Lilluminant = arccos ( lilluminant = arccos (複数形 lilluminants) 0.60
ˆL · L (cid:107) ˆL(cid:107) · (cid:107)L(cid:107) ) ~L・L (cid:107) sl(cid:107) · (cid:107)l(cid:107) ) 0.72
(7) where ˆL is the estimated illuminant and L is the ground-truth illuminant. (7) L は地中照度で、L は地中照度である。 0.70
Since the datasets for color constancy are relatively small because it is difficult to collect training data with corresponding ground-truth illuminants. カラーコンステンシー用のデータセットは比較的小さいため、対応する地中照度計によるトレーニングデータ収集が困難である。 0.77
Training a deep learning model with only the supervision Lilluminant usually does not generalize well. 教師付きlilluminantのみによるディープラーニングモデルのトレーニングは、一般的には一般的ではない。 0.59
Therefore, we propose to use contrastive learning, which can help to learn a color constancy model that generalize better even with a small training dataset. そこで本研究では,小さなトレーニングデータセットでもより汎用的なカラーコンステンシーモデルを学ぶのに役立つコントラスト学習の利用を提案する。 0.75
Details of the contrastive learning task are described as follows. 対照的な学習課題の詳細は以下の通りである。 0.74
The contrastive learning framework The proposed CLCC is built upon the recent work SimCLR [13]. コントラスト学習フレームワーク 提案されたclccは、最近の simclr [13] に基づいている。 0.66
Therefore, we discuss self-supervised constrative learning for color constancy in this section, and then elaborate on our extended fully-supervised contrastive learning in the next section. そこで本節では,カラーコンステンシーのための自己教師ありコンステンシー学習について検討し,次の節では拡張された全教師ありコントラスト学習について詳述する。 0.59
The essential building blocks of contrastive learning are illustrated here: 対照的な学習の基本的な構成要素を以下に示す。 0.59
• A stochastic data augmentation t(·) ∼ T that augments a sample image I to a different view t(I). • サンプル画像 i を別のビュー t(i) に拡張する確率的データ拡張 t(·) である。 0.63
Note that t(·) is required to be label-preserving, meaning that I and t(I) still share the same ground-truth illuminant L. t(·) はラベル保存に必要であり、I と t(I) は同じ基底光源 L を共有している。 0.61
• A feature extraction function hθ that extracts the representation of t(I). • t(i) の表現を抽出する特徴抽出関数 hθ 。 0.77
hθ is further used for downstream color constancy task as defined in the Eq (5). hθ は eq (5) で定義された下流色コンステンシータスクにも使われる。 0.75
• A feature projection function gψ that maps the representation hθ(t(I)) to the projection z that lies on a unit hypersphere. • 表現 hθ(t(i)) を単位超球面上の射影 z に写像する特徴射影関数 gψ 。 0.60
gψ is typically only required when learning representations and thrown away once the learning is finished. 通常は、表現を学ぶときにのみ必要であり、学習が終わると捨てられる。 0.75
• A similarity metric function s(·) that measures the similarity between latent projections (zi, zj). • 潜在射影(zi, zj)間の類似度を測定する類似度計量関数s(·)。 0.77
• Contrastive pair formulation: anchor I, positive I+ and negative I− samples jointly compose the positive pair (I, I+) and the negative pair (I, I−) for contrastive learning. • 比較対の定式化: アンカーI, 正のI+, 負のI−サンプルは, 正のペア(I, I+)と負のペア(I, I−)を併用して構成する。 0.79
For the color constancy task, a positive pair should share the same illuminant label L, while a negative pair should have different ones. 色一致タスクでは、正のペアは同じ照度ラベルLを共有し、負のペアは異なるペアを持つべきである。 0.68
• A contrastive loss function Lcontrastive that aims to maximize the similarity between the projection of the positive pair (z, z+) and minimize the similarity between that of the negative pair (z, z−) in the latent projection space. • 正の対 (z, z+) の射影の類似性を最大化し、潜在射影空間における負の対 (z, z−) の類似性を最小化することを目的とした対比的損失関数 lcontrastive 。 0.82
j )). Self-supervised contrastive learning Given two random training images Ii and Ij with different scene content, one can naively form a positive contrastive pair with two randomly augmented views of the same image (t(Ii), t(cid:48)(I+ i )), and a negative contrastive pair with views of two different images (t(Ii), t(cid:48)(I− j)である。 自己教師付きコントラスト学習 シーン内容が異なる2つのランダムトレーニング画像IiとIjが与えられた場合、同一画像の2つのランダム拡張ビュー(t(Ii), t(cid:48)(I+i))と、2つの異なる画像(t(Ii), t(cid:48)(I−))のビューとの負のコントラストペアを鼻で形成することができる。 0.73
Such naive formulation introduces two potential drawbacks. このようなナイーブな定式化は2つの潜在的な欠点をもたらす。 0.37
One is the sampling bias, the potential to sample a false negative pair that shares very similar illuminants (i.e., Li (cid:39) Lj). 一つはサンプリングバイアスであり、非常に類似した発光物質(例えばLi (cid:39) Lj)を共有する偽陰対をサンプリングする電位である。 0.70
The other is the lack of hardness, the fact that the positive t(I+ i ) derived from the same image as the anchor t(Ii) could share similar scene content. もう一つは硬さの欠如であり、アンカー t(ii) と同じ画像から得られる正の t(i+i) が類似したシーンコンテンツを共有できるという事実である。 0.76
This alone suffices to let neural networks easily distinguish from negative t(cid:48)(I− j ) with apparently different scene content. これによりニューラルネットワークは、明らかに異なるシーンコンテンツを持つ負のt(cid:48)(i−j)と容易に区別できる。 0.70
Hence, as suggested by [13], one should seek strong data augmentations to regularize such learning shortcut. したがって、[13]で示唆されるように、このような学習ショートカットを規則化する強力なデータ拡張を求めるべきである。 0.57
To alleviate sampling bias and increase the hardness of contrastive pairs, we propose to leverage label information, extending self-supervised contrastive learning into fullysupervised contrastive learning, where the essential data augmentation is specifically designed to be label-preserving for color constancy task. サンプルバイアスを緩和し,コントラストペアの硬さを高めるために,ラベル情報を活用し,自己教師付きコントラスト学習を完全教師付きコントラスト学習に拡張することを提案する。 0.59
4.2. CLCC: Contrastive learning for color constancy We now describe our realization of each component in the proposed fully-supervised contrastive learning framework, as depicted in Fig 3 4.2. CLCC: カラー一貫性のためのコントラスト学習 提案された完全教師付きコントラスト学習フレームワークにおける各コンポーネントの実現を図3に示す。 0.78
Contrastive pair formulation Here, we define IXA as a linear raw-RGB image captured in the scene X under the illu- 対照的な対の定式化 ここでは、IXAを、照明下でシーンXで捉えた線形生RGB画像と定義する。 0.61
英語(論文から抽出)日本語訳スコア
Figure 3: The proposed formation for contrastive pairs and color augmentation. 図3: コントラストペアの形成と色拡張について提案する。 0.75
minant LA. Let us recapitulate our definition that a positive pair should share an identical illuminant while a negative pair should not. ロサンゼルス出身。 正の対が同じ光源を共有するべきであり、負の対は共有すべきでないという定義を再カプセル化する。 0.51
Therefore, given two randomly sampled training images IAX and IBY, we construct our contrastive pairs as follows: したがって、ランダムにサンプリングされた2つのトレーニング画像 iax と iby が与えられたとき、コントラストペアを以下のように構成する。
訳抜け防止モード: そのため、ランダムにサンプル化した2つのトレーニング画像IAXとIBYが与えられた。 コントラスト対を構築します
0.66
XA))—with an iden- XA) -idenを持つ。 0.78
• An easy positive pair (t(IXA), t(cid:48)(I+ tical scene X and illuminant LA. • 簡単な正の対 (t(ixa), t(cid:48)(i+tical scene x, illuminant la)。 0.76
• An easy negative pair (t(IXA), t(cid:48)(I− YC))—with different scenes (X, Y) and different illuminants (LA, LC). • 簡単な負対 (t(IXA), t(cid:48)(I− YC) で、異なるシーン (X, Y) と異なる照度 (LA, LC) がある。 0.82
• A hard positive pair (t(IXA), t(cid:48)(I+ YA))—with different scenes (X, Y) but an identical illuminant LA. • 強い正対 (t(IXA), t(cid:48)(I+ YA)) で、異なるシーン (X, Y) を持つが、同じ照度LAである。 0.78
• A hard negative pair (t(IXA), t(cid:48)(I− tical scene X but different illuminants (LA, LC). • 硬い負の対 (t(ixa), t(cid:48)(i−tical scene x, but different illuminants (la, lc))。 0.78
XC))—with an iden- XC) -idenで。 0.69
IYC, IYA and IXC are synthesized by replacing one scene’s illuminant to another. IYC、IYA、IXCは、あるシーンの発光物質を別のシーンに置き換えることで合成される。 0.64
Note that we define the novel illuminant LC as the interpolation or extrapolation between LA and LB, thus we do not need a redundant hard negative sample IXB. 新たな発光剤LCをLAとLBの補間あるいは補間として定義するので、冗長なハード負のサンプルIXBは不要である。 0.68
More details are explained in Section 4.3. t is a stochastic perturbation-based, illuminant-preservin g data augmentation composed by random intensity, random shot noise, and random Gaussian noise. 詳細はセクション4.3で説明されている。tは確率的摂動に基づく、照度、ランダムショットノイズ、ランダムガウスノイズによって構成される照度保存データ拡張である。 0.61
Similarity metric and contrastive loss function Once the contrastive pairs are defined in the image space, we use hθ and gψ to encode those views t(·) to the latent projection space z. 画像空間でコントラスト対が定義されると、類似度計量とコントラスト損失関数は hθ と gψ を用いてそれらのビュー t(·) を潜在射影空間 z に符号化する。 0.81
Our contrastive loss can be computed as the sum of InfoNCE losses for properly elaborated contrastive pairs: 我々のコントラスト損失は、適切に精巧なコントラストペアのインフォデンス損失の和として計算できる。 0.63
XA, z− YC) XA, z− XC) YA, z− YC) YA, z− XC) The InfoNCE loss LNCE can be computed as: XA, z− YC) XA, z− XC) YA, z− YC) YA, z− XC) InfoNCE損失LNCEは次のように計算できる。 0.91
Lcontrastive = LNCE(zXA, z+ + LNCE(zXA, z+ + LNCE(zXA, z+ + LNCE(zXA, z+ Lcontrastive = LNCE(zXA, z+ + LNCE(zXA, z+ + LNCE(zXA, z+ + LNCE(zXA, z+) 0.99
(cid:34) LNCE = − log (cid:34) LNCE = − log 0.82
exp(s+/τ ) +(cid:80)N exp(s+/τ ) +(cid:80)N 0.78
exp(s+/τ ) exp(s+/τ ) 0.74
n=1 exp(s−/τ ) n=1 exp(s−/τ) 0.63
(8) (9) (cid:35) (8) (9) (cid:35) 0.83
where s+ and s− are the cosine similarity scores of positive and negative pairs respectively: s+ と s− はそれぞれ正対と負対のコサイン類似点である。 0.71
s+ = s(z, z+) s− = s(z, z−) s+ = s(z, z+) s− = s(z, z−) 0.95
(10) Equation (9) could be viewed as performing a (N + 1)-way classification realized by cross-entropy loss with N negative pairs and 1 positive pair. (10) 式 (9) は N 対と 1 対の正の対を持つクロスエントロピー損失によって実現された (N + 1) 方向の分類を行うことができる。 0.81
τ is the temperature scaling factor. τ は温度スケーリング係数である。 0.84
4.3. Raw-domain Color Augmentation 4.3. 生ドメインカラー強化 0.70
The goal of our proposed color augmentation is to synthesize more diverse and harder positive and negative samples by manipulating illuminants such that the color constancy solution space is better constrained. 提案する色調増強の目標は,色定数溶液空間がより制約されるようにイルミナントを操作することで,より多様でより強固な正と負のサンプルを合成することである。 0.73
As shown in Fig 4, for example, given two randomly sampled (IXA, LA), and (IYB, LB) from training data, we go through the following procedure to synthesize IYC, IYA and IXC, as defined in Section 4.2. 図4に示すように、トレーニングデータからランダムサンプリングされた2つの (IXA, LA) と (IYB, LB) が与えられた場合、第4章2で定義された IYC, IYA, IXC を合成するために以下の手順を踏襲する。 0.66
Color checker detection We extract 24 linear-raw RGB colors CA ∈ R24×3 and CB ∈ R24×3 of the color checker from IXA and IYB respectively using the off-the-shelf color checker detector. カラーチェッカー検出 私たちは, 市販のカラーチェッカー検出器を用いて, IXA と IYB から, カラーチェッカーの線形RGB色 CA ∈ R24×3 と CB ∈ R24×3 をそれぞれ抽出した。 0.67
Color transformation matrix Given CA and CB, we can solve a linear mapping MAB ∈ R3×3 that transform CA to CB by any standard least-square method. 色変換行列 CA と CB が与えられたとき、任意の最小二乗法により CA を CB に変換する線型写像 MAB ∈ R3×3 を解くことができる。 0.70
The inverse mapping MBA can be derived by solving the M−1 AB. 逆写像 MBA は M−1 AB を解くことで導出することができる。 0.74
Accordingly, we can augment IXB and IYA as: したがって、IXB と IYA を次のように拡張できる。 0.53
IXB = IXAMAB IYA = IYBMBA IXB = IXAMAB IYA = IYBMBA 0.85
(11) Novel illuminant synthesis The above augmentation procedure produces novel samples IXB and IYA, but using only pre-existing illuminants LA and LB from the training data. (11) 新規の照度合成 上記の拡張手順は、新しいサンプルIXBとIYAを生成するが、トレーニングデータから既存の照度LAとLBのみを使用する。 0.75
To synthesize a novel sample IXC under a novel illuminant LC that does not exist in the training dataset, we can synthesize CC by channel-wise interpolating or extrapolating トレーニングデータセットに存在しない新しい発光LCの下で新しい試料IXCを合成するために、チャネルワイド補間または外挿によりCCを合成する。 0.74
英語(論文から抽出)日本語訳スコア
Figure 4: An illustration of our proposed color augmentation. 図4: 提案したカラー拡張の例示。 0.67
The left hand side shows the generation of positive/negative samples by swapping pre-existing illuminants from a pair of images via estimated color mapping matrices MAB and MBA. 左側は、推定色マッピング行列mab,mbaを介して画像対から既存の光源を交換して、陽性/陰性のサンプルを生成する。
訳抜け防止モード: 左側は正/負のサンプルの生成を示す。 推定カラーマッピング行列 MAB と MBA を通じて、一対のイメージから既存の照度を切り替える。
0.76
The right hand side shows the augmented samples with novel illuminants via interpolation (w = +0.5) and extrapolation (w = −1.5 and w = +1.5) using the detected color checkers CA and CB. 右手側では、検出されたカラーチェッカーCAおよびCBを用いて、補間(w = +0.5)および外挿(w = −1.5およびw = +1.5)を介して、新規な照度を持つ増色試料を示す。
訳抜け防止モード: 右側は補間 (w = +0.5 ) および補間 (w = −1.5 ) による新しい照度を持つ増補試料である。 w = +1.5 ) 検出されたカラーチェッカーCAとCBを使用する。
0.73
from the existing CA and CB as: 既存の CA および CB から 0.55
CC = (1 − w)CA + wCB CC = (1 − w)CA + wCB 0.85
(12) where w can be randomly sampled from a uniform distribution of an appropriate range [wmin, wmax]. (12) ここで、w は適切な範囲[wmin, wmax]の一様分布からランダムにサンプリングできる。 0.78
Note that w should not be close to zero in avoidance of yielding a false negative sample IXC = IXA for contrastive learning. 対照的な学習のために、w は偽陰サンプル IXC = IXA を得るのを避けるためにゼロに近づかないことに注意。 0.75
To more realistically synthesize IXC (i.e., more accurate on chromatic colors), we need the full color transformation matrix MAC that maps IXA to IXC: IXCをより現実的に合成するためには、IXAをIXCにマッピングするフルカラー変換行列MACが必要である。
訳抜け防止モード: ixcをよりリアルに合成する(すなわち、色色においてより正確に)。 ixa を ixc にマッピングするフルカラー変換マトリクス mac が必要です。
0.70
IXC = IXAMAC IYC = IYBMBC IXC = IXAMAC IYC = IYBMBC 0.85
(13) where MAC can be efficiently computed from the identity matrix 1 and MAB without solving least-squares as: (13) MAC は最小二乗を解かずに恒等行列 1 と MAB から効率的に計算できる。 0.80
MAC = (1 − w)1 + wMAB MBC = w1 + (1 − w)MBA MAC = (1 − w)1 + wMAB MBC = w1 + (1 − w)MBA 0.89
(14) Equation (14) can be derived from Eq (12) and Eq (13). (14) 方程式 (14) は eq (12) と eq (13) から導出することができる。 0.85
From full color mapping to neutral color mapping Our synthesis method could be limited by the performance of color checker detection. フルカラーマッピングから中性カラーマッピングまで,提案手法はカラーチェッカー検出の性能によって制限される。 0.73
When the color checker detection is not successful, the full colors CA and CB could be reduced to the neutral ones LA and LB, meaning that the color transformation matrix MAB is reduced from a full matrix to a diagonal matrix. カラーチェッカー検出が成功しなかった場合、フルカラーCA,CBを中性マトリックスLA,LBに還元することができ、色変換行列MABをフルマトリックスから対角行列に還元することができる。 0.74
This is also equivalent to first perform WB on IA with LA, and subsequently perform an inverse WB with LB. これは、まずIA上でLAでWBを行い、次にLBで逆WBを実行することと等価である。 0.60
We provide the ablation study of this simplified version in our experiment, where we term the full color mapping as Full-Aug and the simplified neutral color mapping as WBAug. そこで本実験では,フルカラーマッピングをFull-Aug,簡易中性カラーマッピングをWBAugと呼ぶ。
訳抜け防止モード: 我々はこの簡易版を実験でアブレーションした。 ここではフルカラーマッピングをFull - Augと呼び、単純化された中性カラーマッピングをWBAugと呼びます。
0.69
We show that even though chromatic colors cannot be correctly mapped, WB-Aug could still obtain performance improvement over the baseline. 色を正しくマッピングすることはできないが,WB-Augは基線よりも性能が向上することを示した。 0.70
5. Experiment 5.1. Network training 5. 実験5.1。 ネットワークトレーニング 0.77
Following FC4 [31], we use ImageNet-pretrained SqueezeNet as the backbone and add a non-linear projection head with three-layer MLP with 512 hidden units for contrastive learning. FC4[31]に続いて、ImageNetでトレーニングされたSqueezeNetをバックボーンとして使用し、512個の隠れユニットを持つ3層MLPを持つ非線形プロジェクションヘッドを追加してコントラスト学習を行う。 0.61
Note that the projection head is thrown away once the learning is finished. 学習が完了すると、投影ヘッドが捨てられることに注意。 0.64
We use Adam [38] optimizer with β1 = 0.9 and β2 = 0.999. β1 = 0.9 と β2 = 0.999 のadam [38]オプティマイザを用いる。 0.60
The learning rate is 0.0003 and batch size is 16. 学習率は0.00003で、バッチサイズは16。 0.84
We use dropout [56] with probability of 0.5 and L2 weight decay of 0.000057 for regularization. 正規化にはドロップアウト [56] を0.5 と l2 の重量減衰率 0.000057 で用いる。 0.69
The loss weights for illuminant estimation and contrastive learning heads (λ, β) is (0.1, 1.0) for the first 5000 epochs, (1.0, 0.1) for the rest 5000 epochs in learning objective (6). 照度推定および比較学習ヘッド(λ, β)の損失重量は、最初の5000エポックでは0.1, 1.0)、残りの5000エポックでは1.0,0.1)である。
訳抜け防止モード: 照度推定と対照的学習ヘッド(λ, β)の損失重みは (0.1, β) である。 初回5000エポック(1.0,0.1),残り5000エポック(6)を学習対象とした。
0.80
The number of negative samples N is 12 and the temperature scaling factor τ is 0.87 for InfoNCE loss (9). 負のサンプル n は 12 で、温度スケーリング係数 τ は情報損失 (9) に対して 0.87 である。 0.86
Note that we do not train our illuminant estimation head with contrastive pairs. 対照的なペアで照度推定ヘッドを訓練しないことに注意。 0.63
They are only used for training the contrastive learning head as depicted in Fig 2. これらは、図2に示すように、コントラスト学習ヘッドのトレーニングにのみ使用される。 0.73
5.2. Data augmentation 5.2. データ拡張 0.70
We follow the default data augmentations used by FC4 with several differences. FC4が使用するデフォルトのデータ拡張にはいくつかの違いがある。 0.60
We resize the crop to 256 × 256 to speed-up training. スピードアップトレーニングのために、作物を256×256にリサイズします。 0.68
For perturbation-based augmentations in contrastive learning, the range of intensity gain is [0.8, 1.2], and the ranges of standard deviation of Guassian noise and shot noise are [0, 0.04] and [0.02, 0.06] for [0, 1]-normalized images respectively. 比較学習における摂動に基づく強化では、強度ゲインの範囲は [0.8, 1.2] であり、ガウスノイズとショットノイズの標準偏差の範囲は [0, 0.04] と [0.02, 0.06] それぞれ [0, 1] 正規化画像である。 0.78
The (wmin, wmax) for novel color synthesis (12) are (−5.0,−0.3) and (+0.3, +5.0). 新規な色合成(12)のための(wmin, wmax)は(−5.0,−0.3)と(+0.3,+5.0)である。 0.67
5.3. Dataset and evaluation metric 5.3. データセットおよび評価指標 0.78
There are two standard public datasets for color constancy task: the reprocessed [53] Color Checker Dataset [23] (termed as the Gehler dataset in this paper) and the NUS-8 Dataset [14]. カラー一貫性タスクには2つの標準データセットがある。再処理された[53]Color Checker Dataset [23](この論文ではGehlerデータセットと定義されている)とNAS-8 Dataset [14]。 0.78
The Gehler dataset has 568 linear raw-RGB Gehlerデータセットは568の線形生RGBを持つ 0.72
英語(論文から抽出)日本語訳スコア
Best-25% Worst-25% best-25% worst-25% 0.63
Tri. 10.49 7.37 6.90 6.28 3.39 2.91 2.84 2.73 2.43 2.44 2.47 2.25 2.13 2.24 1.69 1.74 1.68 1.43 1.67 1.72 Tri 10.49 7.37 6.90 6.28 3.39 2.91 2.84 2.73 2.43 2.44 2.47 2.25 2.13 2.24 1.69 1.74 1.68 1.43 1.67 1.72 0.46
Mean Median 10.62 10.58 7.05 8.43 6.71 7.70 5.96 7.20 3.20 4.14 2.73 3.67 2.60 3.71 3.40 2.57 2.22 3.20 2.26 3.20 2.33 2.96 2.11 3.03 1.90 3.05 2.04 2.92 2.38 1.48 1.59 2.36 1.46 2.24 1.31 1.99 1.53 2.12 1.57 2.23 2.02 1.36 1.64 2.28 1.52 2.15 1.24 1.85 1.42 1.96 1.84 1.31 Mean Median 10.62 10.58 7.05 8.43 6.71 7.70 5.96 7.20 3.20 4.14 2.73 3.67 2.60 3.71 3.40 2.57 2.22 3.20 2.26 3.20 2.33 2.96 2.11 3.03 1.90 3.05 2.04 2.92 2.38 1.48 1.59 2.36 1.46 2.24 1.31 1.99 1.53 2.12 1.57 2.23 2.02 1.36 1.64 2.28 1.52 2.15 1.24 1.85 1.42 1.96 1.84 1.31 0.41
White-Patch [9] Edge-based Gamut [4] Pixel-based Gamut [4] Intersection-based Gamut [4] Gray-World [10] Bayesian [23] NIS [25] Shades-of-Gray [20] 1st-order Gray-Edge [60] 2nd-order Gray-Edge [60] Spatio-spectral (GenPrior) [11] Corrected-Moment (Edge) [19] Corrected-Moment (Color) [19] Cheng et al [14] CCC (dist+ext) [5] Regression TreeTree [15] DS-Net (HypNet + SelNet) [54] FFCC-4 channels [6] AlexNet-FC4 [31] SqueezeNet-FC4 [31] IGTN (vanilla triplet loss) [66] IGTN (no triplet loss) [66] IGTN (no learnable histogram) [66] IGTN (full) [66] C4 [67] CLCC w/ Full-Aug Table 1: Angular error of various methods on the NUS-8 dataset. White-Patch [9] Edge-based Gamut [4] Pixel-based Gamut [4] Intersection-based Gamut [4] Gray-World [10] Bayesian [23] NIS [25] Shades-of-Gray [20] 1st-order Gray-Edge [60] 2nd-order Gray-Edge [60] Spatio-spectral (GenPrior) [11] Corrected-Moment (Edge) [19] Corrected-Moment (Color) [19] Cheng et al [14] CCC (dist+ext) [5] Regression TreeTree [15] DS-Net (HypNet + SelNet) [54] FFCC-4 channels [6] AlexNet-FC4 [31] SqueezeNet-FC4 [31] IGTN (vanilla triplet loss) [66] IGTN (no triplet loss) [66] IGTN (no learnable histogram) [66] IGTN (full) [66] C4 [67] CLCC w/ Full-Aug Table 1: Angular error of various methods on the NUS-8 dataset. 0.91
CLCC gets the best results on the mean tri-mean and worst-25% metrics, and comparable results on the others. CLCCは平均的なトリ平均値と最悪の25%のメトリクスで最高の結果を得る。 0.58
Notably, although IGTN gets the best result on the median metric, its model complexity is the largest. 特に、IGTNは中央値で最高の結果を得るが、そのモデルの複雑さは最大である。 0.58
19.45 16.08 14.05 13.61 9.00 8.21 8.47 7.41 7.36 7.27 6.18 7.08 7.41 6.61 5.85 5.54 6.08 4.75 4.78 5.15 4.70 5.20 5.28 4.58 4.40 4.20 19.45 16.08 14.05 13.61 9.00 8.21 8.47 7.41 7.36 7.27 6.18 7.08 7.41 6.61 5.85 5.54 6.08 4.75 4.78 5.15 4.70 5.20 5.28 4.58 4.40 4.20 0.40
1.86 2.41 2.51 2.20 0.90 0.82 0.79 0.77 0.72 0.75 0.80 0.68 0.65 0.62 0.45 0.49 0.48 0.35 0.48 0.47 0.45 0.51 0.47 0.36 0.48 0.41 1.86 2.41 2.51 2.20 0.90 0.82 0.79 0.77 0.72 0.75 0.80 0.68 0.65 0.62 0.45 0.49 0.48 0.35 0.48 0.47 0.45 0.51 0.47 0.36 0.48 0.41 0.40
1.53 1.42 - 1.53 1.42 - 0.68
1.75 0.38 Tri. 1.75 0.38 Tri 0.56
6.28 3.81 6.35 4.23 3.10 2.47 3.45 6.28 3.81 6.35 4.23 3.10 2.47 3.45 0.43
Best-25% Worst-25% Extra data ベスト25% 最悪の25% エクストラデータ 0.73
2.33 1.00 1.45 1.14 0.95 0.50 1.00 0.90 0.64 2.33 1.00 1.45 1.14 0.95 0.50 1.00 0.90 0.64 0.42
10.58 10.58 16.12 10.20 7.61 8.74 9.22 6.46 6.69 10.58 10.58 16.12 10.20 7.61 8.74 9.22 6.46 6.69 0.42
Mean Median 6.36 4.66 7.55 4.93 3.59 3.52 4.19 3.12 2.96 3.10 2.42 2.36 1.95 1.90 1.78 1.67 1.65 1.61 1.77 1.65 1.73 1.78 1.85 1.58 1.35 1.44 Mean Median 6.36 4.66 7.55 4.93 3.59 3.52 4.19 3.12 2.96 3.10 2.42 2.36 1.95 1.90 1.78 1.67 1.65 1.61 1.77 1.65 1.73 1.78 1.85 1.58 1.35 1.44 0.42
Gray World [10] General Gray World [60] White Patch [9] Shades-of-Gray [20] Spatio-spectral (GenPrior) [11] Cheng et al [14] NIS [25] Corrected-Moment (Edge) [19] Corrected-Moment (Color) [19] Exemplar [32] Regression Tree [15] CNN [8] CCC (dist+ext) [5] DS-Net(HypNet+SelNet) [54] FFCC-4 channels [6] FFCC-2 channels [6] FFCC-2 channels [6] FFCC-2 channels [6] AlexNet-FC4 [31] SqueezeNet-FC4 [31] IGTN (vanilla triplet loss) [66] IGTN (no triplet loss) [66] IGTN (no learnable histogram) [66] IGTN (full) [66] C4 [67] CLCC w/ Full-Aug Table 2: Angular error of various methods on the Gehler dataset. Gray World [10] General Gray World [60] White Patch [9] Shades-of-Gray [20] Spatio-spectral (GenPrior) [11] Cheng et al [14] NIS [25] Corrected-Moment (Edge) [19] Corrected-Moment (Color) [19] Exemplar [32] Regression Tree [15] CNN [8] CCC (dist+ext) [5] DS-Net(HypNet+SelNet) [54] FFCC-4 channels [6] FFCC-2 channels [6] FFCC-2 channels [6] FFCC-2 channels [6] AlexNet-FC4 [31] SqueezeNet-FC4 [31] IGTN (vanilla triplet loss) [66] IGTN (no triplet loss) [66] IGTN (no learnable histogram) [66] IGTN (full) [66] C4 [67] CLCC w/ Full-Aug Table 2: Angular error of various methods on the Gehler dataset. 0.97
The use of semantic data or meta-data are denoted by “S” or ”M”. 意味データまたはメタデータの使用は“S”または“M”で表される。 0.83
The result shows that SqueezeNet-FC4 plugging in our approach, which keeps the same model complexity and without meta data can achieve comparable performance. その結果、SqueezeNet-FC4は、同じモデルの複雑さを保ちながら、メタデータなしで同等のパフォーマンスを達成できるアプローチにプラグインしていることがわかった。 0.56
6.28 3.48 5.68 4.01 2.96 2.14 3.13 2.38 2.15 2.30 1.65 1.95 1.38 1.12 0.96 0.96 0.86 0.86 1.11 1.18 1.09 1.13 1.10 0.92 0.88 0.92 6.28 3.48 5.68 4.01 2.96 2.14 3.13 2.38 2.15 2.30 1.65 1.95 1.38 1.12 0.96 0.96 0.86 0.86 1.11 1.18 1.09 1.13 1.10 0.92 0.88 0.92 0.40
4.76 4.84 4.29 4.23 4.44 4.27 4.29 3.78 4.25 4.31 4.91 3.70 3.21 3.48 4.76 4.84 4.29 4.23 4.44 4.27 4.29 3.78 4.25 4.31 4.91 3.70 3.21 3.48 0.41
0.35 0.31 0.29 0.26 0.24 0.23 0.34 0.38 0.31 0.34 0.31 0.28 0.28 0.27 0.35 0.31 0.29 0.26 0.24 0.23 0.34 0.38 0.31 0.34 0.31 0.28 0.28 0.27 0.41
1.22 1.33 1.14 1.13 1.07 1.02 1.29 1.27 1.22 1.33 1.14 1.13 1.07 1.02 1.29 1.27 0.42
0.99 1.04 5.87 0.99 1.04 5.87 0.55
- - - - - - - - - - - - 0.85
- +S +M +S +M - +S +M +S +M 0.75
(a) On the NUS-8 dataset, CLCC achieves the best results and the most light-weighted model of all comparable methods. (a) NUS-8データセットでは、CLCCは全ての同等の手法の最良の結果と最も軽量なモデルを達成する。 0.71
(b) On the Gehler dataset, without increasing model complexity, CLCC improves SqueezeNet-FC4 to achieve comparable results. b) Gehlerデータセットでは、モデル複雑性を増大させることなく、CLCCはSqueezeNet-FC4を改善して同等の結果を得る。 0.63
Figure 5: Model complexity versus mean angular error. 図5: モデルの複雑さ対平均角誤差。 0.82
CLCC improves SqueezeNet-FC4 by 0.39 (17.5%) on the NUS-8 dataset as the state-of-the-art, and by 0.21 (12.5%) on the Gehler dataset as a comparable method. clcc は nus-8 データセットの 0.39 (17.5%) を最先端として、gehler データセットの 0.21 (12.5%) を同等の方法で改善した。 0.58
images captured by 2 cameras and the NUS-8 dataset has 1736 linear raw-RGB images captured by 8 cameras. 画像は2台のカメラで撮影され、NAS-8データセットには1736枚のリニア生RGB画像が8台のカメラで撮影されている。 0.42
In color constancy studies, three-fold cross validation is widely used for both datasets. カラーコンステンシー研究では、両方のデータセットで3倍のクロス検証が広く使われている。 0.61
Several standard metrics are reported in terms of angular error in degrees: mean, median, tri-mean of all the errors, mean of the lowest 25% of errors , and mean of the highest 25% of errors. 角誤差の度合でいくつかの標準指標が報告されている: 誤差の平均、中央値、三量平均、エラーの最低25%、エラーの最高25%である。 0.62
5.4. Evaluation Quantitative evaluation Following the evaluation protocol, we perform three-fold cross validation on the NUS-8 and the Gehler datasets. 5.4. 評価プロトコルに従って定量的評価を行い,nus-8とgehlerデータセットについて3次元クロス検証を行った。 0.69
We compare our performance with 私たちはパフォーマンスと比べる 0.88
previous state-of-the-art approaches. これまでの最先端のアプローチ。 0.31
As shown in Fig 5a, the proposed CLCC is able to achieve state-of-the-art mean angular error on the NUS-8 dataset, 17.5% improvements compared to FC4 with similar model size. 図5aに示すように、提案されたCLCCはNAS-8データセットで最先端の平均角誤差を達成でき、同様のモデルサイズを持つFC4に比べて17.5%改善されている。 0.58
Other competitive methods, such as C4 and IGTN, use much more model parameters (3× and more than 200×) but give worse mean angular error. C4 や IGTN のような他の競合手法では、より多くのモデルパラメータ (3× と 200× 以上) を用いるが、より悪い平均角誤差を与える。 0.71
Table 1 shows comprehensive performance 表1は総合的なパフォーマンスを示します 0.58
英語(論文から抽出)日本語訳スコア
comparisons with recent methods on the NUS-8 dataset [14]. NUS-8データセットの最近の手法との比較 [14]。 0.84
Our CLCC provides significant improvements over the baseline network SqueezeNet-FC4 across all scoring metrics and reach the best mean metric, as well as the best worst-25% metric. 我々のCLCCは、基準ネットワークであるSqueezeNet-FC4よりも大幅に改善され、すべてのスコアから最高の平均メトリックに到達し、最高の最低25%のメトリックに到達します。 0.61
This indicates that the proposed fully-supervised contrastive learning not only improves the overall performance when there is no massive training data, but also improves robustness via effective constrastive pairs constructions. これは, 大規模トレーニングデータがない場合, 総合的な性能向上だけでなく, 効果的な連続対構成による頑健性の向上が期待できることを示す。 0.73
For the Gehler dataset, as shown in Fig 5b, our CLCC stays competitive with less than 0.1 performance gap behind the best performing approach C4 [67], whose model size is 3× larger. 図5bに示すように、gehlerデータセットでは、モデルサイズが3倍大きいc4 [67]よりも0.1未満のパフォーマンスギャップで、私たちのclccは競争力を維持しています。 0.61
Table 2 shows detailed performance of state-of-theart methods on the Gehler dataset. 表2は、Gehlerデータセット上の最先端メソッドの詳細なパフォーマンスを示す。 0.52
It is shown that methods achieving better scores than CLCC either require substantially more complexity (C4), or utilize supplemental data (FFCC). CLCCよりも優れたスコアを得るには、かなり複雑な(C4)か、補足データ(FFCC)を使う必要がある。 0.68
C4 has three times more parameters which may facilitate remembering more sensor features than ours. C4には3倍のパラメータがあり、センサーの機能を思い出すのに役立ちます。 0.66
FFCC needs meta-data from camera to reach the best median metric. FFCCは、最高の中央値に到達するために、カメラからのメタデータが必要である。 0.53
If no auxiliary data is used, CLCC performs better than FFCC-4 channels on all metrics. 補助データを使用しない場合、CLCCは全てのメトリクスにおいてFCC-4チャネルより優れている。 0.69
Ablation for color augmentation Recap that our proposed color augmentation methods for contrastive learning includes Full-Aug and WB-Aug mentioned in Section 4.3. コントラスト学習のためのカラー強化手法として,第4.3節で述べたFull-AugとWB-Augがある。 0.63
As shown in Table 3, even when the color checker is not successfully detected for full color mapping (Full-Aug), the reduced neutral color mapping (WB-Aug) is still able to significantly decrease the mean angular error from 2.23 to 1.93 and the worst-case error from 5.15 to 4.30 over the SqueezeNetFC4 baseline, which are substantial relative improvement 13.5% and 16.5% respectively. 表3に示すように、フルカラーマッピング(Full-Aug)でカラーチェッカーが検出できない場合でも、縮小された中性カラーマッピング(WB-Aug)は平均角誤差を2.23から1.93に、最悪のケースエラーをSqueezeNetFC4ベースライン上で5.15から4.30に、それぞれ大幅に改善した13.5%と16.5%と、著しく減少させることができる。 0.69
Furthermore, when FullAug is considered, the mean angular error can be decreased from 1.93 to 1.84 with an additional relative improvement 5.1%. さらに、FullAugを考慮すると、平均角誤差が1.93から1.84に減少し、相対的な改善が5.1%となる。 0.65
This shows that correctly mapped chromatic colors for synthesizing contrastive pairs can improve the quality of contrastive learning, resulting a improved model. この結果から,コントラスト学習の質を向上し,モデルの改善が期待できることがわかった。 0.56
FC4 [31] + CLCC w/ WB-Aug + CLCC w/ Full-Aug FC4[31] + CLCC w/WB-Aug + CLCC w/ Full-Aug 0.74
Mean Median Best-25% Worst-25% 2.23 1.93 1.84 Mean Median Best-25% Worst-25% 2.23 1.93 1.84 0.59
1.57 1.38 1.31 1.57 1.38 1.31 0.47
0.47 0.44 0.41 0.47 0.44 0.41 0.47
5.15 4.30 4.20 5.15 4.30 4.20 0.47
Table 3: The results show CLCC is able to improve SqueezeNet-FC4 quality by contrastive learning with two different data augmentations on the NUS-8 dataset. 表3: CLCCは、NUS-8データセット上の2つの異なるデータ拡張による対照的な学習によって、SqueezeNet-FC4の品質を改善することができることを示す。 0.59
Worst-case robustness In this section, we are also interested in whether CLCC can provide improvements on robustness for worst-cases. 最悪の場合のロバスト性 この節では、CLCCが最悪の場合のロバスト性を改善することができるかどうかにも興味があります。
訳抜け防止モード: 最悪の - ケースロバストネス この節では、我々はまた興味を持っている。 CLCCは最悪の場合の堅牢性を改善することができる。
0.48
To illustrate the robustness in more finegrained level, we propose to evaluate our model under K grouped data on the Gehler dataset via clustering the illuminant labels with K-means. よりきめ細かいレベルでのロバスト性を説明するために,我々は,K平均ラベルをクラスタリングすることで,ゲーラーデータセット上のK群データに基づくモデルを評価することを提案する。 0.76
K is selected as 5 for example. 例えば、k は 5 として選択される。 0.62
Each group represents different scene contents under similar 各グループは、同様の条件下で異なるシーンコンテンツを表す 0.63
Figure 6: Per-cluster error metrics on the Gehler dataset. 図6: Gehlerデータセット上のクラスタ単位のエラーメトリクス。 0.81
We show that CLCC achieves better performance on all clusters, especially the worst-case performance (i.e. CLCCはすべてのクラスタにおいて,特に最悪のパフォーマンス(すなわち,パフォーマンス)が向上することを示す。 0.76
worst-25%). Notably, in the sparse data regime (cluster colored with pink that contains only 16 data points), CLCC trades best-case performance (i.e., best-25%) with the worst-case one, leading to better robustness (i.e., lower test error standard deviation). 最悪の25%)。 特に、スパースデータレジーム(16個のデータポイントしか含まないピンク色のクラスタ)では、CLCCは最悪のデータとベストケースのパフォーマンス(最高25%)を交換し、堅牢性(テストエラー標準偏差の低減)を向上させる。 0.73
illuminants. As shown in Fig 6, CLCC greatly improves on all scoring metrics among all clusters (except for best-25% in pink cluster). 照明器具 図6に示すように、CLCCはすべてのクラスタのスコアの指標を大幅に改善する(ピンククラスターの25%を除く)。 0.65
Remarkably, we demonstrate that, when the amount of cluster data decreases from higher one (e g , purple cluster) to lower one (e g , pink cluster), as shown in the data distribution on top-left side in Fig 6), the improvement over worse-case performance increases. 注目すべきなのは、図6の左上側のデータ分布に示すように、クラスタデータ量がより高いもの(紫のクラスタなど)から低いもの(ピンクのクラスタなど)に減少すると、より悪い場合のパフォーマンスよりも改善が増加することだ。 0.77
Especially in the region that suffers from data sparsity (e g , 16 data points in pink cluster), CLCC significantly reduces the worse-case error from 3.24 to 2.31, which achieves 28.7% relative improvement. 特にデータスパシティ(例えばピンクのクラスタで16のデータポイント)に悩まされている地域では、CLCCは最悪のケースエラーを3.24から2.31に大幅に削減し、28.7%の相対的な改善を実現している。
訳抜け防止モード: 特にその地域では データスポーシティ(ピンクのクラスタで16のデータポイントなど)に悩まされている。 CLCCはケースエラーを3.24から2.31に大幅に削減する。 相対的な改善は28.7%です
0.66
This finding supports our contrastive learning design which aims to learn better illuminant-dependent features that are robust and invariant to scene contents. この発見は, シーン内容に頑健で不変な照度に依存した特徴を学習することを目的とした, 対照的な学習設計を支援する。 0.56
6. Conclusion In this paper, we present CLCC, a contrastive learning framework for color constancy. 6. 結論 本稿では,カラーコンスタンスのためのコントラスト学習フレームワークであるCLCCを提案する。 0.78
Our framework differs from conventional self-supervised contrastive learning on the novel fully-supervised construction of contrastive pairs, driven by our novel color augmentation. 提案手法は,従来の自己教師ありコントラスト学習と異なり,コントラストペアの完全教師あり構成は,カラー拡張によって実現されている。 0.55
We improve considerably over previous strong baseline, achieving stateof-the-art or competitive results on two public benchmark datasets, without additional computational costs. 従来の強力なベースラインよりも大幅に改善し,2つの公開ベンチマークデータセットに対して,計算コストを増すことなく,最先端ないし競争的な結果を得ることができた。 0.50
Our design of contrastive pairs allows model to learn better illuminant features that are particularly robust to worse-cases in data sparse regions. 対照的なペアの設計により、データスパース領域の特に悪いケースに対して堅牢な優れた照度特性を学習することができる。 0.58
英語(論文から抽出)日本語訳スコア
References [1] Mahmoud Afifi and Michael S. Brown. マフムード・アフィフィとマイケル・s・ブラウンを参照。 0.46
Sensor-independent In 30th British illumination estimation for DNN models. センサ非依存 イギリスの第30回DNNモデルにおける照明推定 0.67
Machine Vision Conference 2019, BMVC 2019, Cardiff, UK, September 9-12, 2019, 2019. Machine Vision Conference 2019, BMVC 2019, Cardiff, UK, September 9-12, 2019, 2019。 0.93
[2] Mahmoud Afifi and Michael S. Brown. [2] mahmoud afifiとmichael s. brown。 0.73
What else can fool deep learning? 他にディープラーニングを騙すものは何か? 0.44
addressing color constancy errors on deep neural network performance. ディープニューラルネットワーク性能における色一致誤差に対処する。 0.69
In 2019 IEEE/CVF International Conference on Computer Vision, ICCV 2019, Seoul, Korea (South), October 27 - November 2, 2019, 2019. 2019年、IEEE/CVF International Conference on Computer Vision, ICCV 2019, Korea (South) 10月27日 - 2019年11月2日。 0.82
[3] Philip Bachman, R. Devon Hjelm, and William Buchwalter. Philip Bachman氏、R. Devon Hjelm氏、William Buchwalter氏。 0.71
Learning representations by maximizing mutual information across views. ビュー間の相互情報最大化による表現の学習。 0.69
In Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, 8-14 December 2019, Vancouver, BC, Canada, 2019. In Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, 8-14 December 2019, Vancouver, BC, Canada, 2019 0.87
[4] Kobus Barnard. コバス・バーナード(Kobus Barnard)。 0.58
Improvements to gamut mapping colour constancy algorithms. 色一致アルゴリズムにおけるガミュートマッピングの改良 0.82
In David Vernon, editor, Computer Vision - ECCV 2000, 6th European Conference on Computer Vision, Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I, 2000. David Vernon, editor, Computer Vision - ECCV 2000, 6th European Conference on Computer Vision, Dublin, Ireland, June 26 - July 1, 2000, Proceedings, Part I, 2000 0.79
[5] Jonathan T. Barron. ジョナサン・T・バロン(Jonathan T. Barron) 0.55
Convolutional color constancy. コンボリューションカラー。 0.45
In 2015 IEEE International Conference on Computer Vision, ICCV 2015, Santiago, Chile, December 7-13, 2015, 2015. 2015年、IEEE International Conference on Computer Vision, ICCV 2015, Santiago, Chile, December 7-13, 2015。 0.82
[6] Jonathan T. Barron and Yun-Ta Tsai. [6]ジョナサン・T・バロンとユンタ・ツァイ。 0.57
Fast fourier color constancy. In 2017 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017, Honolulu, HI, USA, July 21-26, 2017, 2017. 高速4色連続色。 2017年、IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017, Honolulu, HI, USA, July 21-26, 2017。 0.75
[7] Lucas Beyer, Xiaohua Zhai, Avital Oliver, and Alexander Kolesnikov. [7]Lucas Beyer、Xiaohua Zhai、Avital Oliver、Alexander Kolesnikov。 0.64
S4L: self-supervised semi-supervised learning. S4L: 自己教師型半教師型学習。 0.39
In 2019 IEEE/CVF International Conference on Computer Vision, ICCV 2019, Seoul, Korea (South), October 27 - November 2, 2019, 2019. 2019年、IEEE/CVF International Conference on Computer Vision, ICCV 2019, Korea (South) 10月27日 - 2019年11月2日。 0.82
[8] Simone Bianco, Claudio Cusano, and Raimondo Schettini. 8]Simone Bianco, Claudio Cusano, Raimondo Schettini。 0.64
Single and multiple illuminant estimation using convolutional neural networks. 畳み込みニューラルネットワークを用いた単一および複数照度推定 0.74
IEEE Trans. IEEE Trans。 0.82
Image Process., 2017. 画像処理、2017年。 0.78
[9] David H Brainard and Brian A Wandell. 9]David H Brainard氏とBrian A Wandell氏。 0.80
Analysis of the retinex theory of color vision. 分析 カラービジョンのレチネックス理論。 0.50
JOSA A, 1986. 1986年、JASA。 0.67
[10] Gershon Buchsbaum. [10]Gershon Buchsbaum。 0.78
A spatial processor model for object オブジェクトのための空間プロセッサモデル 0.87
colour perception. Journal of the Franklin institute, 1980. 色知覚。 フランクリン研究所、1980年。 0.59
[11] Ayan Chakrabarti, Keigo Hirakawa, and Todd E. Zickler. [11]Ayan Chakrabarti、平川敬吾、Todd E. Zickler。 0.70
Color constancy with spatio-spectral statistics. 時差スペクトル統計による色一致 0.74
IEEE Trans. IEEE Trans。 0.82
Pattern Anal. Mach. パターンアナル。 Mach 0.54
Intell., 2012. [12] Liang-Chieh Chen, Yukun Zhu, George Papandreou, Florian Schroff, and Hartwig Adam. 2012年、同上。 12]Liang-Chieh Chen、Yukun Zhu、George Papandreou、Florian Schroff、Hartwig Adam。 0.62
Encoder-decoder with atrous separable convolution for semantic image segmentation. 画像セグメンテーションのための可分分離畳み込みを伴うエンコーダデコーダ 0.71
In Vittorio Ferrari, Martial Hebert, Cristian Sminchisescu, and Yair Weiss, editors, Computer Vision - ECCV 2018 - 15th European Conference, Munich, Germany, September 8-14, 2018, Proceedings, Part VII, Lecture Notes in Computer Science, 2018. Vittorio Ferrari, Martial Hebert, Cristian Sminchisescu, Yair Weiss, editors, Computer Vision - ECCV 2018 - 15th European Conference, Munich, Germany, September 8-14, 2018, Proceedings, Part VII, Lecture Notes in Computer Science, 2018。 0.85
[13] Ting Chen, Simon Kornblith, Mohammad Norouzi, and Geoffrey E. Hinton. 13]Ting Chen、Simon Kornblith、Mohammad Norouzi、Geoffrey E. Hinton。 0.62
A simple framework for contrastive learning of visual representations. 視覚表現のコントラスト学習のための単純なフレームワーク。 0.81
2020. [14] Dongliang Cheng, Dilip K Prasad, and Michael S Brown. 2020. 14] dongliang cheng、dilip k prasad、michael s brown。 0.65
Illuminant estimation for color constancy: why spatial-domain 色コンステンシーの照度推定:なぜ空間領域か 0.77
methods work and the role of the color distribution. 方法は機能し、色分布の役割を持つ。 0.82
JOSA A, 2014. 2014年、JESA。 0.62
[15] Dongliang Cheng, Brian L. Price, Scott Cohen, and Michael S. Brown. 15]ドングリアン・チェン、ブライアン・l・プライス、スコット・コーエン、マイケル・s・ブラウン 0.62
Effective learning-based illuminant estimation using simple features. 簡単な特徴を用いた効果的な学習ベース照度推定 0.65
In IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2015, Boston, MA, USA, June 7-12, 2015, 2015. IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2015, Boston, MA, USA, June 7-12, 2015 0.76
[16] Ching-Yao Chuang, Joshua Robinson, Yen-Chen Lin, Antonio Torralba, and Stefanie Jegelka. 16]Cing-Yao Chuang、Joshua Robinson、Yen-Chen Lin、Antonio Torralba、Stefanie Jegelka。 0.73
Debiased contrastive In Advances in Neural Information Processing learning. 神経情報処理学習におけるDebiasedの進歩 0.66
Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020 0.87
[17] Ekin D. Cubuk, Barret Zoph, Dandelion Mane, Vijay Vasudevan, and Quoc V. Le. [17]Ekin D. Cubuk, Barret Zoph, Dandelion Mane, Vijay Vasudevan, Quoc V. Le 0.80
Autoaugment: Learning augmentation strategies from data. Autoaugment: データから拡張戦略を学ぶ。 0.77
In IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2019, Long Beach, CA, USA, June 16-20, 2019, pages 113–123, 2019. IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2019, Long Beach, CA, USA, June 16-20, 2019, page 113–123, 2019。 0.92
[18] Ekin D. Cubuk, Barret Zoph, Jonathon Shlens, and Quoc V. Le. [18]Ekin D. Cubuk, Barret Zoph, Jonathon Shlens, Quoc V. Le 0.80
Randaugment: Practical automated data augmentation In 2020 IEEE/CVF Conferwith a reduced search space. randaugment: 2020年のieee/cvfにおける実用的な自動データ拡張。 0.67
ence on Computer Vision and Pattern Recognition, CVPR Workshops 2020, Seattle, WA, USA, June 14-19, 2020, 2020. ence on Computer Vision and Pattern Recognition, CVPR Workshops 2020, Seattle, WA, USA, June 14-19, 2020, 2020。 0.90
[19] Graham D. Finlayson. グラハム・D・フィンレイソン(Graham D. Finlayson) 0.48
Corrected-moment illuminant estimation. 修正モーメント照度推定 0.64
In IEEE International Conference on Computer Vision, ICCV 2013, Sydney, Australia, December 1-8, 2013, 2013. IEEE International Conference on Computer Vision, ICCV 2013, Sydney, Australia, December 1-8, 2013 0.74
[20] Graham D. Finlayson and Elisabetta Trezzi. 20]graham d. finlaysonとelisabetta trezzi。 0.62
Shades of gray and colour constancy. 色は灰色、色は灰色。 0.67
In The Twelfth Color Imaging Conference: Color Science and Engineering Systems, Technologies, Applications, CIC 2004, Scottsdale, Arizona, USA, November 9-12, 2004, 2004. 第12回カラーイメージング会議:color science and engineering systems, technologies, applications, cic 2004, scottsdale, arizona, usa, november 9-12, 2004, 2004 で開催。 0.87
[21] Brian V. Funt and Lilong Shi. [21]Brian V. FuntとLilong Shi。 0.83
The rehabilitation of maxrgb. maxrgbのリハビリテーション。 0.56
In 18th Color and Imaging Conference, CIC 2010, San Antonio, Texas, USA, November 8-12, 2010. The 18th Color and Imaging Conference, CIC 2010, San Antonio, Texas, USA, November 8-12, 2010 0.87
IS&T - The Society for Imaging Science and Technology, 2010. IS&T - The Society for Imaging Science and Technology, 2010 (英語) 0.88
[22] Brian V. Funt and Weihua Xiong. [22]Brian V. FuntとWeihua Xiong。 0.81
Estimating illumination chromaticity via support vector regression. 支持ベクトル回帰による照明色度の推定 0.80
In The Twelfth Color Imaging Conference: Color Science and Engineering Systems, Technologies, Applications, CIC 2004, Scottsdale, Arizona, USA, November 9-12, 2004, 2004. 第12回カラーイメージング会議:color science and engineering systems, technologies, applications, cic 2004, scottsdale, arizona, usa, november 9-12, 2004, 2004 で開催。 0.87
[23] Peter V. Gehler, Carsten Rother, Andrew Blake, Thomas P. Minka, and Toby Sharp. Peter V. Gehler氏、Carsten Rother氏、Andrew Blake氏、Thomas P. Minka氏、Toby Sharp氏。 0.82
Bayesian color constancy revisited. ベイズ色の一致が再燃した。 0.37
In 2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2008), 24-26 June 2008, Anchorage, Alaska, USA, 2008. 2008年IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2008), 24-26 June 2008, Anchorage, Alaska, USA, 2008 0.82
[24] Robert Geirhos, Patricia Rubisch, Claudio Michaelis, Matthias Bethge, Felix A. Wichmann, and Wieland Brendel. Robert Geirhos氏、Patricia Rubisch氏、Claudio Michaelis氏、Matthias Bethge氏、Felix A. Wichmann氏、Wieland Brendel氏。 0.74
Imagenet-trained cnns are biased towards texture; increasing shape bias improves accuracy and robustness. イメージネットで訓練されたcnnはテクスチャに偏りがあり、形状バイアスの増加は精度と堅牢性を向上させる。 0.45
In ICLR. OpenReview.net, 2019. ICLR。 OpenReview.net、2019年。 0.58
[25] Arjan Gijsenij and Theo Gevers. [25]Arjan Gijsenij氏とTheo Gevers氏。 0.75
Color constancy using natural image statistics and scene semantics. 自然画像統計とシーン意味論を用いたカラーコンステンシー 0.76
IEEE Trans. IEEE Trans。 0.82
Pattern Anal. Mach. パターンアナル。 Mach 0.54
Intell., 2011. [26] Michael Gutmann and Aapo Hyv¨arinen. 2011年、入社。 26] マイケル・グートマンと アーポ・ハイヴ・アリネン 0.47
Noise-contrastive estimation: A new estimation principle for unnormalized statistical models. ノイズコントラスト推定:非正規化統計モデルに対する新しい推定原理 0.85
In Yee Whye Teh and D. Mike Titterington, editors, Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics, AISTATS 2010, Yee Whye Teh and D. Mike Titterington, editors, Proceedings of the Thirth International Conference on Artificial Intelligence and Statistics, AISTATS 2010 (英語) 0.83
英語(論文から抽出)日本語訳スコア
Chia Laguna Resort, Sardinia, Italy, May 13-15, 2010, JMLR Proceedings, 2010. Chia Laguna Resort, Sardinia, Italy, May 13-15, 2010, JMLR Proceedings, 2010 0.86
[27] Kaiming He, Haoqi Fan, Yuxin Wu, Saining Xie, and Ross B. Girshick. [27]カイミング・ヘ、ホーキー・ファン、ユキシン・ウー、サイニング・シー、ロス・B・ギルシック。 0.44
Momentum contrast for unsupervised visual representation learning. 教師なし視覚表現学習におけるモメンタムコントラスト 0.62
In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020. 2020年、IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020。 0.94
IEEE, 2020. IEEE、2020年。 0.90
[28] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. [28]開明、Xiangyu Zhang、Shaoqing Ren、Jian Sun。 0.53
Deep residual learning for image recognition. 画像認識のための深い残差学習 0.81
In 2016 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2016, Las Vegas, NV, USA, June 27-30, 2016, 2016. 2016年、IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2016, Las Vegas, NV, USA, June 27-30, 2016。 0.83
[29] Olivier J. H´enaff, Aravind Srinivas, Jeffrey De Fauw, Ali Razavi, Carl Doersch, S. M. Ali Eslami, and A¨aron van den Oord. オリヴィエ J. H ́enaff, Aravind Srinivas, Jeffrey De Fauw, Ali Razavi, Carl Doersch, S. M. Ali Eslami, A saron van den Oord 0.76
Data-efficient image recognition with contrastive predictive coding. コントラスト予測符号を用いたデータ効率画像認識 0.78
2020. [30] R. Devon Hjelm, Alex Fedorov, Samuel Lavoie-Marchildon, Karan Grewal, Philip Bachman, Adam Trischler, and Yoshua Bengio. 2020. R. Devon Hjelm氏、Alex Fedorov氏、Samuel Lavoie-Marchildon氏、Karan Grewal氏、Philip Bachman氏、Adam Trischler氏、Yoshua Bengio氏。
訳抜け防止モード: 2020. [30 ] R. Devon Hjelm, Alex Fedorov, Samuel Lavoie - Marchildon, Karan Grewal、Philip Bachman、Adam Trischler、Yoshua Bengio。
0.84
Learning deep representations by mutual information estimation and maximization. 相互情報推定と最大化による深層表現の学習 0.79
In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019, 2019. 第7回Learning Representations国際会議, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019, 2019 0.83
[31] Yuanming Hu, Baoyuan Wang, and Stephen Lin. [31]フ元明、ワン・バユアン、スティーブン・リン。 0.51
Fcˆ4: Fully convolutional color constancy with confidence-weighted pooling. fc4: 完全畳み込み型カラーコンステンシーと信頼度重み付きプール。 0.61
In 2017 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017, Honolulu, HI, USA, July 21-26, 2017. 2017年、IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017, Honolulu, HI, USA, July 21-26, 2017。 0.89
IEEE Computer Society, 2017. IEEE Computer Society、2017年。 0.91
[32] Hamid Reza Vaezi Joze and Mark S. Drew. He32] Hamid Reza Vaezi Joze と Mark S. Drew 0.76
Exemplar-based colour constancy. exemplarベースのカラーコンステンシー。 0.71
In Richard Bowden, John P. Collomosse, and Krystian Mikolajczyk, editors, British Machine Vision Conference, BMVC 2012, Surrey, UK, September 3-7, 2012, 2012. Richard Bowden, John P. Collomosse, Krystian Mikolajczyk, editors, British Machine Vision Conference, BMVC 2012, Surrey, UK, September 3-7, 2012 0.74
[33] Daniel Hern´andez Ju´arez, Sarah Parisot, Benjamin Busam, Ales Leonardis, Gregory G. Slabaugh, and Steven McDonagh. [33]Daniel Hern ́andez Ju ́arez、Sarah Parisot、Benjamin Busam、Ales Leonardis、Gregory G. Slabaugh、Steven McDonagh。 0.86
A multi-hypothesis approach to color constancy. 色コンステンシーに対するマルチハイポテーゼアプローチ 0.64
In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020. 2020年、IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020。 0.94
IEEE, 2020. IEEE、2020年。 0.90
[34] Nima Khademi Kalantari and Ravi Ramamoorthi. [34]Nima Khademi KalantariとRavi Ramamoorthi。 0.72
Deep high dynamic range imaging of dynamic scenes. ダイナミックシーンの深部高ダイナミックレンジイメージング 0.68
ACM Trans. Graph., 2017. ACMトランス。 2017年、グラフ。 0.78
[35] Hakki Can Karaimer and M. S. Brown. [35]Hakki Can KaraimerとM.S. Brown。 0.89
A software platform In ECCV, ECCVにおけるソフトウェアプラットフォーム 0.76
for manipulating the camera imaging pipeline. カメラのパイプラインを 操作するために 0.71
2016. [36] Hakki Can Karaimer and Michael S. Brown. 2016. [36]ハキはカライマーとマイケル・s・ブラウンを許す。 0.72
Improving color reproduction accuracy on cameras. カメラの色再現精度の向上。 0.77
In CVPR, pages 6440– 6449. CVPRでは6440-6449頁。 0.72
IEEE Computer Society, 2018. IEEE Computer Society、2018年。 0.89
[37] Prannay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, and Dilip Krishnan. [37]Prnnay Khosla, Piotr Teterwak, Chen Wang, Aaron Sarna, Yonglong Tian, Phillip Isola, Aaron Maschinot, Ce Liu, Dilip Krishnan。 0.77
Supervised contrastive learning. 対照的な学習を監督する。 0.43
2020. [38] Diederik P. Kingma and Jimmy Ba. 2020. [38]Diederik P. KingmaとJimmy Ba 0.81
Adam: A method for stochastic optimization. Adam: 確率最適化の方法です。 0.69
In 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. 3rd international conference on learning representations, iclr 2015, san diego, ca, usa, may 7-9, 2015 conference track proceedings, 2015 (英語) 0.84
[39] Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton. Alex Krizhevsky氏、Ilya Sutskever氏、Geoffrey E. Hinton氏。 0.66
Imagenet classification with deep convolutional neural networks. 深部畳み込みニューラルネットワークを用いた画像ネット分類 0.83
2012. [40] Edwin H Land and John J McCann. 2012. 40] エドウィン・h・ランドと ジョン・j・マケイン 0.75
Lightness and retinex theory. 光度とレチネックス 理論だ 0.69
Josa, 61. [41] Bo Li, Junjie Yan, Wei Wu, Zheng Zhu, and Xiaolin Hu. ジョサ、61歳。 [41]Bo Li、Junjie Yan、Wei Wu、Zheng Zhu、Xiaolin Hu。 0.59
High performance visual tracking with siamese region proposal network. シアム領域提案ネットワークを用いた高性能ビジュアルトラッキング 0.77
In 2018 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2018, Salt Lake City, UT, USA, June 18-22, 2018, 2018. 2018年IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2018, Salt Lake City, UT, USA, June 18-22, 2018, 2018 0.83
[42] Tsung-Yi Lin, Priya Goyal, Ross B. Girshick, Kaiming He, and Piotr Doll´ar. [42]通義林、プリヤ・ゴヤル、ロス・B・ギルシック、カイミング・ヘ、ピオトル・ドル。 0.50
Focal loss for dense object detection. 密度物体検出のための焦点損失 0.79
In IEEE International Conference on Computer Vision, ICCV 2017, Venice, Italy, October 22-29, 2017, 2017. IEEE International Conference on Computer Vision, ICCV 2017, Italy, Italy, October 22-29, 2017で発表された。 0.90
[43] Sindy L¨owe, Peter O’Connor, and Bastiaan S. Veeling. [43]シンディ・L・シャウ、ピーター・オコナー、バスティアン・S・ヴェイリング。 0.57
Putting an end to end-to-end: Gradient-isolated learning of representations. エンドツーエンドに配置する: 表現のグラディエント分離学習。 0.67
In Hanna M. Wallach, Hugo Larochelle, Alina Beygelzimer, Florence d’Alch´e-Buc, Emily B. Hanna M. Wallach, Hugo Larochelle, Alina Beygelzimer, Florence d’Alch ́e-Buc, Emily B 0.92
Fox, and Roman Garnett, editors, Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, 8-14 December 2019, Vancouver, BC, Canada, 2019. Fox, and Roman Garnett, editors, Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, 8-14 December 2019, Vancouver, BC, Canada, 2019 0.87
[44] David McAllester and Karl Stratos. David McAllester氏とKarl Stratos氏。 0.63
Formal limitations on the measurement of mutual information. 相互情報の計測に関する形式的制限。 0.78
In Silvia Chiappa and Roberto Calandra, editors, The 23rd International Conference on Artificial Intelligence and Statistics, AISTATS 2020, 26-28 August 2020, Online [Palermo, Sicily, Italy], Proceedings of Machine Learning Research, 2020. Silvia Chiappa and Roberto Calandra, editors, the 23rd International Conference on Artificial Intelligence and Statistics, AISTATS 2020, 26-28 August 2020, Online (Palermo, Sicily, Italy, Proceedings of Machine Learning Research, 2020。 0.83
[45] Andriy Mnih and Koray Kavukcuoglu. [45]Andriy MnihとKoray Kavukcuoglu。 0.76
Learning word embeddings efficiently with noise-contrastive estimation. ノイズコントラスト推定による単語埋め込みの学習 0.67
In Christopher J. C. Burges, L´eon Bottou, Zoubin Ghahramani, and Kilian Q. Weinberger, editors, Advances in Neural Information Processing Systems 26: 27th Annual Conference on Neural Information Processing Systems 2013. Christopher J. C. Burges, L eon Bottou, Zoubin Ghahramani, Kilian Q. Weinberger, editors, Advances in Neural Information Processing Systems 26: 27th Annual Conference on Neural Information Processing Systems 2013 0.86
Proceedings of a meeting held December 5-8, 2013, Lake Tahoe, Nevada, United States, 2013. 2013年12月5日~8日、アメリカ合衆国ネバダ州タホー湖で開かれた会議。 0.61
[46] Luis Perez and Jason Wang. 46]ルイス・ペレスとジェイソン・ワン。 0.66
The effectiveness of data augmentation in image classification using deep learning. 深層学習を用いた画像分類におけるデータ拡張の有効性 0.82
CoRR, 2017. 2017年、CoRR。 0.80
[47] Ben Poole, Sherjil Ozair, A¨aron van den Oord, Alex Alemi, and George Tucker. [47]Ben Poole, Sherjil Ozair, A saron van den Oord, Alex Alemi, George Tucker。 0.76
On variational bounds of mutual information. 相互情報の変動境界について 0.66
In Proceedings of the 36th International Conference on Machine Learning, ICML 2019, 9-15 June 2019, Long Beach, California, USA, 2019. 第36回In Proceedings of the 36th International Conference on Machine Learning, ICML 2019, 9-15 June 2019, Long Beach, California, USA, 2019。 0.94
[48] Yanlin Qian, Ke Chen, Jarno Nikkanen, Joni-Kristian Kamarainen, and Jiri Matas. [48]Yanlin Qian, Ke Chen, Jarno Nikkanen, Joni-Kristian Kamarainen, Jiri Matas。 0.81
Recurrent color constancy. カラーコンステンシーの再発。 0.62
In IEEE International Conference on Computer Vision, ICCV 2017, Venice, Italy, October 22-29, 2017, 2017. IEEE International Conference on Computer Vision, ICCV 2017, Italy, Italy, October 22-29, 2017で発表された。 0.90
[49] Nguyen Ho Man Rang, Dilip K. Prasad, and Michael S. Brown. Nguyen Ho Man Rang氏、Dilip K. Prasad氏、Michael S. Brown氏。 0.69
Raw-to-raw: Mapping between image sensor color responses. raw-to-raw: イメージセンサの色応答のマッピング。 0.67
In CVPR, pages 3398–3405. CVPR』3398-3405頁。 0.69
IEEE Computer Society, 2014. IEEE Computer Society、2014年。 0.83
[50] Joseph Redmon, Santosh Kumar Divvala, Ross B. Girshick, and Ali Farhadi. Joseph Redmon, Santosh Kumar Divvala, Ross B. Girshick, Ali Farhadi. [50] Joseph Redmon, Santosh Kumar Divvala. 0.77
You only look once: Unified, real-time object detection. 一度だけ見えます: 統一されたリアルタイムオブジェクト検出。 0.70
In 2016 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2016, Las Vegas, NV, USA, June 27-30, 2016, 2016. 2016年、IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2016, Las Vegas, NV, USA, June 27-30, 2016。 0.83
[51] Mark Sandler, Andrew G. Howard, Menglong Zhu, Andrey Zhmoginov, and Liang-Chieh Chen. Mark Sandler氏、Andrew G. Howard氏、Menglong Zhu氏、Andrey Zhmoginov氏、Liang-Chieh Chen氏。 0.75
Mobilenetv2: Inverted residuals and linear bottlenecks. Mobilenetv2: 反転残差と線形ボトルネック。 0.76
In 2018 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2018, Salt Lake City, UT, USA, June 18-22, 2018, 2018. 2018年IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2018, Salt Lake City, UT, USA, June 18-22, 2018, 2018 0.83
英語(論文から抽出)日本語訳スコア
of Artificial Intelligence Conference, IAAI 2020, The Tenth AAAI Symposium on Educational Advances in Artificial Intelligence, EAAI 2020, New York, NY, USA, February 7-12, 2020, 2020. iaai 2020, the tenth aaai symposium on educational advances in artificial intelligence, eaai 2020, new york, ny, usa, february 7-12, 2020, 2020について。 0.68
[68] Xinyue Zhu, Yifan Liu, Zengchang Qin, and Jiahong Li. [68]新陽周、Yifan Liu、Zengchang Qin、Jeahong Li。 0.60
Data augmentation in emotion classification using generative adversarial networks. 生成的敵ネットワークを用いた感情分類におけるデータ拡張 0.74
CoRR, 2017. 2017年、CoRR。 0.80
[52] Ikuro Sato, Hiroki Nishimura, and Kensuke Yokoi. [52]佐藤伊九郎、西村弘樹、横井健介 0.57
APAC: augmented pattern classification with neural networks. APAC:ニューラルネットワークによる拡張パターン分類。 0.79
CoRR, 2015. 2015年、CoRR。 0.88
[53] Lilong Shi and Brian Funt. 53]Lilong ShiとBrian Funt。 0.66
Re-processed version of the gehler gehler (複数形 gehlers) 0.21
color constancy dataset of 568 images. 568枚の画像の 色一致データセットです 0.67
[54] Wu Shi, Chen Change Loy, and Xiaoou Tang. [54]Wu Shi、Chen Change Loy、Xiaoo Tang。 0.58
Deep specialized network for illuminant estimation. 照度推定のための深部特殊ネットワーク 0.80
In Bastian Leibe, Jiri Matas, Nicu Sebe, and Max Welling, editors, Computer Vision - ECCV 2016 - 14th European Conference, Amsterdam, The Netherlands, October 11-14, 2016, Proceedings, Part IV, 2016. Bastian Leibe, Jiri Matas, Nicu Sebe, Max Welling, editors, Computer Vision - ECCV 2016 - 14th European Conference, Amsterdam, The Netherlands, October 11-14, 2016 Proceedings, Part IV, 2016 0.79
[55] Kihyuk Sohn. [55]kihyuk sohn。 0.71
Improved deep metric learning with multi-class n-pair loss objective. マルチクラスn対損失目標を用いた深度距離学習の改良 0.72
In Daniel D. Lee, Masashi Sugiyama, Ulrike von Luxburg, Isabelle Guyon, and Roman Garnett, editors, Advances in Neural Information Processing Systems 29: Annual Conference on Neural Information Processing Systems 2016, December 5-10, 2016, Barcelona, Spain, 2016. Daniel D. Lee, Masashi Sugiyama, Ulrike von Luxburg, Isabelle Guyon, Roman Garnett, editors, Advances in Neural Information Processing Systems 29: Annual Conference on Neural Information Processing Systems 2016, December 5-10, 2016, Barcelona, Spain, 2016 0.83
[56] Nitish Srivastava, Geoffrey E. Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Nitish Srivastava氏、Geoffrey E. Hinton氏、Alex Krizhevsky氏、Ilya Sutskever氏、Ruslan Salakhutdinov氏。 0.67
Dropout: a simple way to prevent neural networks from overfitting. dropout: ニューラルネットワークの過剰フィットを防ぐシンプルな方法。 0.73
J. Mach. Learn. J. Mach 学ぶ。 0.72
Res., 2014. [57] Yonglong Tian, Dilip Krishnan, and Phillip Isola. 2014年、同上。 Yonglong Tian, Dilip Krishnan, Phillip Isola.[57]Yonglong Tian, Dilip Krishnan, Phillip Isola。 0.72
Contrastive multiview coding. 対比 マルチビューコーディング 0.59
2019. [58] Yonglong Tian, Chen Sun, Ben Poole, Dilip Krishnan, Cordelia Schmid, and Phillip Isola. 2019. Yonglong Tian, Chen Sun, Ben Poole, Dilip Krishnan, Cordelia Schmid, Phillip Isola。 0.72
What makes for good views for contrastive learning. 対照的な学習に良い見方をもたらすもの。 0.67
abs/2005.10243, 2020. Abs/2005.10243, 2020 0.66
[59] Antonio Torralba and Alexei A. Efros. 59]Antonio TorralbaとAlexei A. Efros。 0.77
Unbiased look at dataset bias. バイアスのないデータセットバイアス。 0.69
In CVPR, pages 1521–1528. CVPR』1521-1528頁。 0.72
IEEE Computer Society, 2011. IEEE Computer Society、2011年。 0.82
[60] Joost van de Weijer, Theo Gevers, and Arjan Gijsenij. [60]Joost van de Weijer、Theo Gevers、Arjan Gijsenij。 0.61
Edgebased color constancy. エッジベースのカラーコンステンシー。 0.65
IEEE Trans. IEEE Trans。 0.82
Image Process., pages 2207–2214, 2007. Image Process., page 2207–2214, 2007 0.88
[61] A¨aron van den Oord, Yazhe Li, and Oriol Vinyals. 61] シャロン・ヴァン・デン・オールド、ヤジ・リー、オリオール・ヴィニールズ。 0.45
Representation learning with contrastive predictive coding. コントラスト型予測符号化による表現学習 0.76
CoRR, abs/1807.03748, 2018. CoRR, abs/1807.03748, 2018。 0.67
[62] Tyler Vigen. 62] タイラー・ヴィゲン 0.52
Spurious correlations. Hachette books, 2015. 鮮やかな相関関係。 Hachette Book、2015年。 0.64
[63] Zhirong Wu, Yuanjun Xiong, Stella X. Yu, and Dahua Lin. [63]Zhirong Wu、Yuanjun Xiong、Stella X. Yu、Dahua Lin 0.67
Unsupervised feature learning via non-parametric instance discrimination. 非パラメータインスタンス識別による教師なし特徴学習。 0.60
In 2018 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2018, Salt Lake City, UT, USA, June 18-22, 2018, 2018. 2018年IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2018, Salt Lake City, UT, USA, June 18-22, 2018, 2018 0.83
[64] Jin Xiao, Shuhang Gu, and Lei Zhang. [64]ジン・シアオ、Shuhang Gu、Lei Zhang。 0.56
Multi-domain learning for accurate and few-shot color constancy. 高精度・少数ショットカラーコンステンシーのためのマルチドメイン学習 0.62
In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020. 2020年、IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020。 0.94
IEEE, 2020. IEEE、2020年。 0.90
[65] Kai Y. Xiao, Logan Engstrom, Andrew Ilyas, and Aleksander Madry. [65]Kai Y. Xiao、Logan Engstrom、Andrew Ilyas、Aleksander Madry。 0.62
Noise or signal: The role of image backgrounds in object recognition. ノイズまたは信号:オブジェクト認識における画像背景の役割。 0.89
CoRR, abs/2006.09994, 2020. CoRR, abs/2006.09994, 2020 0.78
[66] Bolei Xu, Jingxin Liu, Xianxu Hou, Bozhi Liu, and Guoping Qiu. [66]Bolei Xu、Jingxin Liu、Xianxu Hou、Bozhi Liu、Guoping Qiu。 0.68
End-to-end illuminant estimation based on deep metric learning. 深度学習に基づくエンドツーエンドの照度推定 0.67
In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020, pages 3613–3622. 2020年、IEEE/CVF Conference on Computer Vision and Pattern Recognition, CVPR 2020, Seattle, WA, USA, June 13-19, 2020, pages 3613–3622。 0.90
IEEE, 2020. IEEE、2020年。 0.90
[67] Huanglin Yu, Ke Chen, Kaiqi Wang, Yanlin Qian, Zhaoxiang Zhang, and Kui Jia. [67]Huanglin Yu, Ke Chen, Kaiqi Wang, Yanlin Qian, Zhaoxiang Zhang, Kui Jia 0.68
Cascading convolutional color constancy. Cascading Convolutional Color Constancy 0.60
In The Thirty-Fourth AAAI Conference on Artificial Intelligence, AAAI 2020, The Thirty-Second Innovative Applications 人工知能に関する第30回AAAI国際会議, AAAI 2020, 第三十二回イノベーティブ応用 0.72
                       ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。