論文の概要: A lightweight deep learning based cloud detection method for Sentinel-2A
imagery fusing multi-scale spectral and spatial features
- arxiv url: http://arxiv.org/abs/2105.00967v1
- Date: Thu, 29 Apr 2021 09:36:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 13:47:40.715153
- Title: A lightweight deep learning based cloud detection method for Sentinel-2A
imagery fusing multi-scale spectral and spatial features
- Title(参考訳): マルチスケールスペクトルと空間特性を融合したSentinel-2A画像の軽量深層学習クラウド検出法
- Authors: Jun Li, Zhaocong Wu, Zhongwen Hu, Canliang Jian, Shaojie Luo, Lichao
Mou, Xiao Xiang Zhu and Matthieu Molinier
- Abstract要約: マルチスケールスペクトル・空間特性(CDFM3SF)を融合したクラウド検出のための軽量ネットワークを提案する。
CDFM3SFは、従来のクラウド検出方法と最先端のディープラーニングベースの手法を精度と速度の両方で上回る。
- 参考スコア(独自算出の注目度): 17.914305435378783
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clouds are a very important factor in the availability of optical remote
sensing images. Recently, deep learning-based cloud detection methods have
surpassed classical methods based on rules and physical models of clouds.
However, most of these deep models are very large which limits their
applicability and explainability, while other models do not make use of the
full spectral information in multi-spectral images such as Sentinel-2. In this
paper, we propose a lightweight network for cloud detection, fusing multi-scale
spectral and spatial features (CDFM3SF) and tailored for processing all
spectral bands in Sentinel- 2A images. The proposed method consists of an
encoder and a decoder. In the encoder, three input branches are designed to
handle spectral bands at their native resolution and extract multiscale
spectral features. Three novel components are designed: a mixed depth-wise
separable convolution (MDSC) and a shared and dilated residual block (SDRB) to
extract multi-scale spatial features, and a concatenation and sum (CS)
operation to fuse multi-scale spectral and spatial features with little
calculation and no additional parameters. The decoder of CD-FM3SF outputs three
cloud masks at the same resolution as input bands to enhance the supervision
information of small, middle and large clouds. To validate the performance of
the proposed method, we manually labeled 36 Sentinel-2A scenes evenly
distributed over mainland China. The experiment results demonstrate that
CD-FM3SF outperforms traditional cloud detection methods and state-of-theart
deep learning-based methods in both accuracy and speed.
- Abstract(参考訳): 雲は光リモートセンシング画像の可用性において非常に重要な要素である。
近年,ディープラーニングに基づくクラウド検出手法が,クラウドのルールや物理モデルに基づく古典的手法を上回っている。
しかし、これらの深層モデルのほとんどは適用性と説明可能性を制限する非常に大きなものであり、他のモデルではSentinel-2のようなマルチスペクトル画像の完全なスペクトル情報を使用しない。
本稿では,クラウド検出のための軽量ネットワークを提案し,マルチスケールのスペクトル・空間特性(CDFM3SF)を融合させて,Sentinel-2A画像中の全てのスペクトル帯域を処理する。
提案手法はエンコーダとデコーダからなる。
エンコーダでは、3つの入力分岐がスペクトル帯域をネイティブ解像度で処理し、マルチスケールのスペクトル特徴を抽出するように設計されている。
3つの新しいコンポーネントは、多次元空間特徴を抽出する混合深度分離型畳み込み(MDSC)と共有拡張残差ブロック(SDRB)と、計算の少ない多次元スペクトルおよび空間的特徴を融合させる結合和(CS)演算である。
cd-fm3sfのデコーダは、3つのクラウドマスクを入力バンドと同じ解像度で出力し、小中大の雲の監督情報を強化する。
提案手法の有効性を検証するため,中国本土に均等に分布する36のSentinel-2Aシーンを手動でラベル付けした。
実験の結果,CD-FM3SFは従来のクラウド検出手法や最先端のディープラーニング手法よりも精度と速度で優れていた。
関連論文リスト
- SSDiff: Spatial-spectral Integrated Diffusion Model for Remote Sensing Pansharpening [14.293042131263924]
本稿では,空間スペクトル統合拡散モデルを導入し,リモートセンシングパンシャーピングタスクであるSSDiffについて述べる。
SSDiffは、パンシャルペン過程を部分空間分解の観点から、空間成分とスペクトル成分の融合過程とみなしている。
論文 参考訳(メタデータ) (2024-04-17T16:30:56Z) - SS-MAE: Spatial-Spectral Masked Auto-Encoder for Multi-Source Remote
Sensing Image Classification [35.52272615695294]
本研究では,HSIとLiDAR/SARデータ共同分類のための空間スペクトルマスク付きオートエンコーダ(SS-MAE)を提案する。
我々のSS-MAEは入力データの空間的およびスペクトル的表現を完全に活用する。
訓練段階における局所的な特徴を補完するため、特徴抽出のために2つの軽量CNNを追加します。
論文 参考訳(メタデータ) (2023-11-08T03:54:44Z) - CD-CTFM: A Lightweight CNN-Transformer Network for Remote Sensing Cloud
Detection Fusing Multiscale Features [5.600932842087808]
この問題を解決するために,CD-CTFMという軽量CNN-Transformerネットワークを提案する。
CD-CTFMはエンコーダ・デコーダアーキテクチャに基づいており、アテンション機構を組み込んでいる。
提案モデルは,38-CloudとMODISの2つのクラウドデータセットで評価される。
論文 参考訳(メタデータ) (2023-06-12T15:37:18Z) - U-TILISE: A Sequence-to-sequence Model for Cloud Removal in Optical
Satellite Time Series [22.39321609253005]
我々は,クラウドにマッピングされた入力シーケンスを,クラウドのない出力シーケンスにマッピングできるニューラルモデルを開発した。
本研究では,欧州全域で取得した衛星センチネル2時系列のデータセットを用いて,提案モデルの有効性を実験的に評価した。
標準ベースラインと比較して、PSNRは以前見られた場所で1.8dB、見えない場所では1.3dB増加する。
論文 参考訳(メタデータ) (2023-05-22T17:37:10Z) - Multimodal Industrial Anomaly Detection via Hybrid Fusion [59.16333340582885]
ハイブリッド核融合方式を用いた新しいマルチモーダル異常検出法を提案する。
本モデルでは,MVTecD-3 ADデータセットにおける検出精度とセグメンテーション精度の両面で,最先端(SOTA)手法より優れている。
論文 参考訳(メタデータ) (2023-03-01T15:48:27Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - FPS-Net: A Convolutional Fusion Network for Large-Scale LiDAR Point
Cloud Segmentation [30.736361776703568]
LiDARポイントクラウドに基づくシーン理解は、自動運転車が安全に運転するのに不可欠なタスクです。
既存のほとんどのメソッドは、情報容量を増やすために、画像チャネルとして異なるポイント属性/モダリティを積み重ねる。
fps-netは,最適なポイントクラウドセグメンテーションのために,投影画像チャネル間の一意性と不一致を生かす畳み込み型融合ネットワークである。
論文 参考訳(メタデータ) (2021-03-01T04:08:28Z) - A Single Stream Network for Robust and Real-time RGB-D Salient Object
Detection [89.88222217065858]
我々は、深度マップを用いて、RGBと深度の間の早期融合と中核融合を誘導する単一ストリームネットワークを設計する。
このモデルは、現在の最も軽量なモデルよりも55.5%軽く、32 FPSのリアルタイム速度で384倍の384ドルの画像を処理している。
論文 参考訳(メタデータ) (2020-07-14T04:40:14Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。