論文の概要: The color out of space: learning self-supervised representations for
Earth Observation imagery
- arxiv url: http://arxiv.org/abs/2006.12119v1
- Date: Mon, 22 Jun 2020 10:21:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:21:30.666700
- Title: The color out of space: learning self-supervised representations for
Earth Observation imagery
- Title(参考訳): 宇宙の色:地球観測画像のための自己監督表現の学習
- Authors: Stefano Vincenzi, Angelo Porrello, Pietro Buzzega, Marco Cipriano,
Pietro Fronte, Roberto Cuccu, Carla Ippoliti, Annamaria Conte, Simone
Calderara
- Abstract要約: 衛星画像から有意義な表現を学習し、その高次元スペクトル帯域を利用して可視色を再構成する。
我々は,土地被覆分類(BigEarthNet)と西ナイルウイルス検出(West Nile Virus detection)について実験を行い,着色が特徴抽出器を訓練するための確固とした前提条件であることを示した。
- 参考スコア(独自算出の注目度): 10.019106184219515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent growth in the number of satellite images fosters the development
of effective deep-learning techniques for Remote Sensing (RS). However, their
full potential is untapped due to the lack of large annotated datasets. Such a
problem is usually countered by fine-tuning a feature extractor that is
previously trained on the ImageNet dataset. Unfortunately, the domain of
natural images differs from the RS one, which hinders the final performance. In
this work, we propose to learn meaningful representations from satellite
imagery, leveraging its high-dimensionality spectral bands to reconstruct the
visible colors. We conduct experiments on land cover classification
(BigEarthNet) and West Nile Virus detection, showing that colorization is a
solid pretext task for training a feature extractor. Furthermore, we
qualitatively observe that guesses based on natural images and colorization
rely on different parts of the input. This paves the way to an ensemble model
that eventually outperforms both the above-mentioned techniques.
- Abstract(参考訳): 近年の衛星画像の増加により、リモートセンシング(RS)のための効果的な深層学習技術の開発が促進されている。
しかし、大きな注釈付きデータセットがないため、その潜在能力は未解決である。
このような問題は、ImageNetデータセットで以前にトレーニングされた機能抽出器を微調整することで対処される。
残念なことに、自然画像の領域は、最終的なパフォーマンスを妨げるrs oneとは異なる。
本研究では,衛星画像から有意義な表現を学習し,その高次元スペクトル帯域を利用して可視色を再構成することを提案する。
土地被覆分類(bigearthnet)および西ナイルウイルス検出実験を行い,特徴抽出器の訓練にはカラー化が有効な前文課題であることを示した。
さらに、自然画像と色付けに基づく推測が入力の異なる部分に依存することを質的に観察する。
これによりアンサンブルモデルへの道を歩み、最終的に上記のテクニックを上回っている。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - SatSynth: Augmenting Image-Mask Pairs through Diffusion Models for Aerial Semantic Segmentation [69.42764583465508]
我々は,地球観測における注釈付きデータの不足に対処するために,生成的画像拡散の可能性を探る。
我々の知る限りでは、衛星セグメンテーションのための画像と対応するマスクの両方を最初に生成する。
論文 参考訳(メタデータ) (2024-03-25T10:30:22Z) - Deep Metric Color Embeddings for Splicing Localization in Severely
Degraded Images [10.091921099426294]
本研究では,画像に最適なスプライシング検出法を提案する。
我々は、照明色やカメラの白点推定に敏感な深度距離空間を学習するが、一方、対象色の変化には敏感である。
本評価では,強い圧縮とダウンサンプリングの対象となる画像に対して,提案手法の組込み空間が技量を上回り,その性能が向上することを示す。
論文 参考訳(メタデータ) (2022-06-21T21:28:40Z) - Detecting Recolored Image by Spatial Correlation [60.08643417333974]
画像のリカラー化は、画像の色値を操作して新しいスタイルを与える、新たな編集技術である。
本稿では,空間相関の観点から,従来型と深層学習による再色検出の汎用的検出能力を示す解を探索する。
提案手法は,複数のベンチマークデータセット上での最先端検出精度を実現し,未知の種類の再色法を適切に一般化する。
論文 参考訳(メタデータ) (2022-04-23T01:54:06Z) - Influence of Color Spaces for Deep Learning Image Colorization [2.3705923859070217]
既存のカラー化手法は、RGB、YUV、Labなど、さまざまな色空間に依存している。
本章では,深層ニューラルネットワークのトレーニングによって得られる結果に対する影響について検討する。
RGB,YUV,Labの色空間と同一の深層ニューラルネットワークアーキテクチャを用いて得られた結果を比較した。
論文 参考訳(メタデータ) (2022-04-06T14:14:07Z) - Astronomical Image Colorization and upscaling with Generative
Adversarial Networks [0.0]
本研究の目的は、非常に特定の画像領域、すなわち天文学的な画像に焦点をあてることにより、この問題に自動的アプローチを提供することである。
我々は、RGBとL*a*bという2つの異なる色空間における様々なモデルの使用について検討する。
このモデルは、画像に存在しない高解像度で色付けされたデータを幻覚させる視覚的に魅力的な画像を生成する。
論文 参考訳(メタデータ) (2021-12-27T19:01:20Z) - Generating Compositional Color Representations from Text [3.141061579698638]
画像検索エンジン上のユーザクエリのかなりの部分が(属性、オブジェクト)構造に従っているという事実に触発され、このような大局的な色プロファイルを生成する生成逆ネットワークを提案する。
コンポジションを学ぶためにパイプラインを設計します - 見た属性とオブジェクトを、目に見えないペアに組み合わせる機能です。
論文 参考訳(メタデータ) (2021-09-22T01:37:13Z) - Non-Homogeneous Haze Removal via Artificial Scene Prior and
Bidimensional Graph Reasoning [52.07698484363237]
本研究では,人工シーンの前置と2次元グラフ推論による不均質なヘイズ除去ネットワーク(nhrn)を提案する。
本手法は,単一画像デハジングタスクとハイザイ画像理解タスクの両方において,最先端アルゴリズムよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-04-05T13:04:44Z) - Is It a Plausible Colour? UCapsNet for Image Colourisation [38.88087332284959]
グレースケール画像のカラー化のための新しいアーキテクチャを提案する。
アーキテクチャは、敵対的な学習パラダイムに従ってトレーニングされたCapsulesに基づいている。
提案手法により, 出口解よりも鮮やかで, 可視な色が生成できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T09:07:13Z) - Instance-aware Image Colorization [51.12040118366072]
本稿では,インスタンス認識のカラー化を実現する手法を提案する。
我々のネットワークアーキテクチャは、市販のオブジェクト検出器を利用して、収穫されたオブジェクト画像を取得する。
類似したネットワークを用いて、フルイメージの特徴を抽出し、融合モジュールを適用して最終色を予測する。
論文 参考訳(メタデータ) (2020-05-21T17:59:23Z) - Learning to Structure an Image with Few Colors [59.34619548026885]
そこで,カラー量子化ネットワークであるColorCNNを提案する。
1ビットのカラースペース(すなわち2色)だけで、提案されたネットワークはCIFAR10データセット上で82.1%のトップ-1の精度を達成した。
アプリケーションの場合、PNGでエンコードされた場合、提案したカラー量子化は、極低ビットレート方式の他の画像圧縮方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T17:56:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。