論文の概要: What's color got to do with it? Face recognition in grayscale
- arxiv url: http://arxiv.org/abs/2309.05180v2
- Date: Wed, 3 Jul 2024 01:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 20:43:01.841638
- Title: What's color got to do with it? Face recognition in grayscale
- Title(参考訳): グレースケールでの顔認識と色の関係
- Authors: Aman Bhatta, Domingo Mery, Haiyu Wu, Joyce Annan, Micheal C. King, Kevin W. Bowyer,
- Abstract要約: 最先端のディープCNNフェイスマーカは通常、カラーフェイスイメージの広範なトレーニングセットを使用して作成される。
本研究は、トレーニングセットのグレースケールまたはカラーバージョンでトレーニングした場合、そのようなマーカがほぼ同一の精度に達することを明らかにした。
より浅いモデルは、複雑な表現をモデル化する能力に欠けており、色に関連するような低レベルの特徴に強く依存している。
- 参考スコア(独自算出の注目度): 9.252410144412089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art deep CNN face matchers are typically created using extensive training sets of color face images. Our study reveals that such matchers attain virtually identical accuracy when trained on either grayscale or color versions of the training set, even when the evaluation is done using color test images. Furthermore, we demonstrate that shallower models, lacking the capacity to model complex representations, rely more heavily on low-level features such as those associated with color. As a result, they display diminished accuracy when trained with grayscale images. We then consider possible causes for deeper CNN face matchers "not seeing color". Popular web-scraped face datasets actually have 30 to 60% of their identities with one or more grayscale images. We analyze whether this grayscale element in the training set impacts the accuracy achieved, and conclude that it does not. We demonstrate that using only grayscale images for both training and testing achieves accuracy comparable to that achieved using only color images for deeper models. This holds true for both real and synthetic training datasets. HSV color space, which separates chroma and luma information, does not improve the network's learning about color any more than in the RGB color space. We then show that the skin region of an individual's images in a web-scraped training set exhibits significant variation in their mapping to color space. This suggests that color carries limited identity-specific information. We also show that when the first convolution layer is restricted to a single filter, models learn a grayscale conversion filter and pass a grayscale version of the input color image to the next layer. Finally, we demonstrate that leveraging the lower per-image storage for grayscale to increase the number of images in the training set can improve accuracy of the face recognition model.
- Abstract(参考訳): 最先端のディープCNNフェイスマーカは通常、カラーフェイスイメージの広範なトレーニングセットを使用して作成される。
本研究は, カラーテスト画像を用いて評価を行った場合においても, トレーニングセットのグレースケール, カラーバージョンでトレーニングすると, ほぼ同一の精度が得られることを示した。
さらに、より浅いモデルでは、複雑な表現をモデル化する能力が欠如しており、色に関連するような低レベルの特徴に強く依存していることを示す。
その結果、グレースケール画像のトレーニングでは精度が低下した。
次に、より深いCNNフェイスマーカの「色が見えていない」原因について検討する。
一般的なウェブスクラッドの顔データセットは、実際には30から60%のアイデンティティを持ち、1つ以上のグレースケールのイメージを持っている。
トレーニングセットのこのグレースケール要素が達成した精度に影響を及ぼすかどうかを分析し、そうでないと結論付ける。
トレーニングとテストの両方にグレースケールの画像のみを使用することで、より深いモデルにカラー画像のみを使用することで、精度が向上することを示した。
これは、実際のトレーニングデータセットと合成トレーニングデータセットの両方に当てはまる。
色覚情報と色覚情報を分離するHSV色空間は、RGB色空間よりもネットワークの色の学習を改善するものではない。
次に、Webスクラッドトレーニングセットにおける個人の画像の皮膚領域は、色空間へのマッピングにおいて顕著な変化を示すことを示す。
これは色が限定的なアイデンティティ固有の情報を持っていることを示唆している。
また、第1畳み込み層を単一フィルタに制限すると、モデルがグレースケール変換フィルタを学習し、入力されたカラー画像のグレースケールバージョンを次の層に渡すことを示す。
最後に,画像単位の低いストレージをグレースケールに活用してトレーニングセット内の画像数を増やすことで,顔認識モデルの精度を向上させることを実証した。
関連論文リスト
- Incorporating Ensemble and Transfer Learning For An End-To-End
Auto-Colorized Image Detection Model [0.0]
本稿では,移動学習とアンサンブル学習の利点を組み合わせた新たな手法を提案する。
提案したモデルは、94.55%から99.13%の精度で有望な結果を示す。
論文 参考訳(メタデータ) (2023-09-25T19:22:57Z) - Improved Diffusion-based Image Colorization via Piggybacked Models [19.807766482434563]
既存の強力なT2I拡散モデルに基づく色付けモデルを提案する。
拡散誘導器は、潜伏拡散モデルの事前訓練された重みを組み込むように設計されている。
次に、輝度認識VQVAEは、所定のグレースケール画像に画素完全アライメントされた色付き結果を生成する。
論文 参考訳(メタデータ) (2023-04-21T16:23:24Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Influence of Color Spaces for Deep Learning Image Colorization [2.3705923859070217]
既存のカラー化手法は、RGB、YUV、Labなど、さまざまな色空間に依存している。
本章では,深層ニューラルネットワークのトレーニングによって得られる結果に対する影響について検討する。
RGB,YUV,Labの色空間と同一の深層ニューラルネットワークアーキテクチャを用いて得られた結果を比較した。
論文 参考訳(メタデータ) (2022-04-06T14:14:07Z) - Color2Style: Real-Time Exemplar-Based Image Colorization with
Self-Reference Learning and Deep Feature Modulation [29.270149925368674]
色を鮮やかな色で満たしてグレースケールの画像媒体を復活させるため,カラーカラー化手法としてColor2Styleを提案する。
提案手法は,参照画像から抽出した色埋め込みを入力されたグレースケール画像の深部表現に注入する,単純だが効果的な深部特徴変調(DFM)モジュールを利用する。
論文 参考訳(メタデータ) (2021-06-15T10:05:58Z) - Assessing The Importance Of Colours For CNNs In Object Recognition [70.70151719764021]
畳み込みニューラルネットワーク(CNN)は相反する性質を示すことが示されている。
CNNが予測をしながら色情報に大きく依存していることを実証します。
congruent, greyscale, incongruent画像の合同画像で学習したモデルを評価する。
論文 参考訳(メタデータ) (2020-12-12T22:55:06Z) - Image Colorization: A Survey and Dataset [94.59768013860668]
本稿では,最先端の深層学習に基づく画像着色技術に関する包括的調査を行う。
既存の着色技法を7つのクラスに分類し、その性能を規定する重要な要因について論じる。
我々は既存のデータセットと提案した画像の両方を用いて、既存の画像のカラー化手法を広範囲に実験的に評価する。
論文 参考訳(メタデータ) (2020-08-25T01:22:52Z) - Semantic-driven Colorization [78.88814849391352]
最近の着色は、白黒画像の着色を学習しながら意味情報を暗黙的に予測する。
そこで本研究では,まず,人間の動作をシミュレートして,画像の理解を学習し,色づけする。
論文 参考訳(メタデータ) (2020-06-13T08:13:30Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。