論文の概要: The Utility of Decorrelating Colour Spaces in Vector Quantised
Variational Autoencoders
- arxiv url: http://arxiv.org/abs/2009.14487v1
- Date: Wed, 30 Sep 2020 07:44:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 22:50:55.763895
- Title: The Utility of Decorrelating Colour Spaces in Vector Quantised
Variational Autoencoders
- Title(参考訳): ベクトル量子変分オートエンコーダにおける色空間のデコレーションの有用性
- Authors: Arash Akbarinia, Raquel Gil-Rodr\'iguez, Alban Flachot and Matteo
Toscani
- Abstract要約: ネットワーク学習構造表現を強制するカラー空間変換を提案する。
入力が1つの色空間のイメージであり、出力が別の色空間のイメージであるVQ-VAEのいくつかの例を訓練した。
- 参考スコア(独自算出の注目度): 1.7792264784100689
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vector quantised variational autoencoders (VQ-VAE) are characterised by three
main components: 1) encoding visual data, 2) assigning $k$ different vectors in
the so-called embedding space, and 3) decoding the learnt features. While
images are often represented in RGB colour space, the specific organisation of
colours in other spaces also offer interesting features, e.g. CIE L*a*b*
decorrelates chromaticity into opponent axes. In this article, we propose
colour space conversion, a simple quasi-unsupervised task, to enforce a network
learning structured representations. To this end, we trained several instances
of VQ-VAE whose input is an image in one colour space, and its output in
another, e.g. from RGB to CIE L*a*b* (in total five colour spaces were
considered). We examined the finite embedding space of trained networks in
order to disentangle the colour representation in VQ-VAE models. Our analysis
suggests that certain vectors encode hue and others luminance information. We
further evaluated the quality of reconstructed images at low-level using
pixel-wise colour metrics, and at high-level by inputting them to image
classification and scene segmentation networks. We conducted experiments in
three benchmark datasets: ImageNet, COCO and CelebA. Our results show, with
respect to the baseline network (whose input and output are RGB), colour
conversion to decorrelated spaces obtains 1-2 Delta-E lower colour difference
and 5-10% higher classification accuracy. We also observed that the learnt
embedding space is easier to interpret in colour opponent models.
- Abstract(参考訳): ベクトル量子化変分オートエンコーダ(VQ-VAE)は3つの主成分によって特徴づけられる。
1) 視覚データの符号化
2)いわゆる埋め込み空間において、k$ 異なるベクトルを割り当てること、および
3) 学習特徴の復号化。
画像はしばしばRGB色空間で表現されるが、他の空間における特定の色の組織は、例えばCIE L*a*b*のように、色度を反対の軸に相関させる興味深い特徴も提供する。
本稿では,ネットワーク学習の構造化表現を強制するために,単純な準教師なしタスクである色空間変換を提案する。
この目的のために、入力が1色空間のイメージであるVQ-VAEのいくつかの例を訓練し、RGBからCIE L*a*b*(合計5色空間)への出力について検討した。
VQ-VAEモデルの色表現をアンタングルするために,トレーニングネットワークの有限埋め込み空間について検討した。
解析の結果,特定のベクトルが色や輝度情報を符号化していることが示唆された。
さらに,画像分類やシーンセグメンテーションネットワークに組み込むことにより,画素単位のカラーメトリクスを用いて低レベルの再構成画像の品質を高く評価した。
我々は、ImageNet、COCO、CelebAの3つのベンチマークデータセットで実験を行った。
その結果、ベースラインネットワーク(入力と出力はrgb)に関して、デコリティー空間への色変換は1-2 デルタ-e 以下の色差と5-10%高い分類精度が得られることがわかった。
また,学習埋め込み空間は色相反モデルにおいて容易に解釈できることも観察した。
関連論文リスト
- Training Neural Networks on RAW and HDR Images for Restoration Tasks [59.41340420564656]
本研究は,3つの画像復元アプリケーション(デノイング,デブロアリング,シングルイメージ超解像)に対するアプローチを検証した。
その結果、ニューラルネットワークは、表示色空間で表現されるHDRおよびRAW画像において、かなりよく訓練されていることが示唆された。
トレーニング戦略へのこの小さな変更は、最大10~15dBのパフォーマンスを大幅に向上させることができます。
論文 参考訳(メタデータ) (2023-12-06T17:47:16Z) - UniGS: Unified Representation for Image Generation and Segmentation [105.08152635402858]
カラーマップを使用してエンティティレベルのマスクを表現し、さまざまなエンティティ番号の課題に対処します。
マスク表現を支援するために、位置認識カラーパレットとプログレッシブ二分法モジュールを含む2つの新しいモジュールが提案されている。
論文 参考訳(メタデータ) (2023-12-04T15:59:27Z) - Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - Name Your Colour For the Task: Artificially Discover Colour Naming via
Colour Quantisation Transformer [62.75343115345667]
そこで本研究では,色空間を定量化しつつ,画像上での認識を維持しつつ,色空間を定量化する新しい色量子化変換器CQFormerを提案する。
人工色システムと人間の言語における基本色用語との一貫性のある進化パターンを観察する。
我々のカラー量子化法は、画像記憶を効果的に圧縮する効率的な量子化法も提供する。
論文 参考訳(メタデータ) (2022-12-07T03:39:18Z) - Learning to Structure an Image with Few Colors and Beyond [59.34619548026885]
カラー量子化ネットワークであるColorCNNを提案し、分類損失を最小限に抑えて、限られた色空間で画像を構成することを学習する。
複数の色空間サイズ構成をサポートするColorCNN+を導入し、大色空間における認識精度の低下と望ましくない視覚的忠実度に関する過去の問題に対処する。
潜在的な応用として、ネットワーク認識のための画像圧縮手法としてColorCNNが利用可能であることを示す。
論文 参考訳(メタデータ) (2022-08-17T17:59:15Z) - Influence of Color Spaces for Deep Learning Image Colorization [2.3705923859070217]
既存のカラー化手法は、RGB、YUV、Labなど、さまざまな色空間に依存している。
本章では,深層ニューラルネットワークのトレーニングによって得られる結果に対する影響について検討する。
RGB,YUV,Labの色空間と同一の深層ニューラルネットワークアーキテクチャを用いて得られた結果を比較した。
論文 参考訳(メタデータ) (2022-04-06T14:14:07Z) - Astronomical Image Colorization and upscaling with Generative
Adversarial Networks [0.0]
本研究の目的は、非常に特定の画像領域、すなわち天文学的な画像に焦点をあてることにより、この問題に自動的アプローチを提供することである。
我々は、RGBとL*a*bという2つの異なる色空間における様々なモデルの使用について検討する。
このモデルは、画像に存在しない高解像度で色付けされたデータを幻覚させる視覚的に魅力的な画像を生成する。
論文 参考訳(メタデータ) (2021-12-27T19:01:20Z) - Universal Deep Network for Steganalysis of Color Image based on Channel
Representation [41.86330101334733]
我々は空間領域とJPEG領域における普遍的なカラー画像ステガナリシスネットワーク(UCNet)を設計する。
提案手法は前処理,畳み込み,分類モジュールを含む。
本研究では, ALASKA II に関する広範囲な実験を行い, 提案手法が最先端の成果を得られることを示す。
論文 参考訳(メタデータ) (2021-11-24T02:22:13Z) - Colored Point Cloud to Image Alignment [15.828285556159026]
そこで本研究では,カラーマッチングと幾何マッチングにより,色付き点雲を所定の色画像に整列する微分最適化手法を提案する。
カメラ画像と点雲の色との変換は、点雲の相対的な位置と一致した色とのマッチングを繰り返すことによって行う。
論文 参考訳(メタデータ) (2021-10-07T08:12:56Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。