論文の概要: Multiresolution Fully Convolutional Networks to detect Clouds and Snow
through Optical Satellite Images
- arxiv url: http://arxiv.org/abs/2201.02350v1
- Date: Fri, 7 Jan 2022 07:15:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-10 15:35:03.412347
- Title: Multiresolution Fully Convolutional Networks to detect Clouds and Snow
through Optical Satellite Images
- Title(参考訳): 光衛星画像による雲・雪検出のためのマルチレゾリューション完全畳み込みネットワーク
- Authors: Debvrat Varshney, Claudio Persello, Prasun Kumar Gupta, and Bhaskar
Ramachandra Nikam
- Abstract要約: 雲と雪は、可視・近赤外線(VNIR)範囲で同様のスペクトル特性を持つ。
本研究では,VNIR画像の雲や雪を効果的に検出できる多分解能完全畳み込みニューラルネットワーク(FCN)を提案する。
- 参考スコア(独自算出の注目度): 1.0602247913671219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clouds and snow have similar spectral features in the visible and
near-infrared (VNIR) range and are thus difficult to distinguish from each
other in high resolution VNIR images. We address this issue by introducing a
shortwave-infrared (SWIR) band where clouds are highly reflective, and snow is
absorptive. As SWIR is typically of a lower resolution compared to VNIR, this
study proposes a multiresolution fully convolutional neural network (FCN) that
can effectively detect clouds and snow in VNIR images. We fuse the
multiresolution bands within a deep FCN and perform semantic segmentation at
the higher, VNIR resolution. Such a fusion-based classifier, trained in an
end-to-end manner, achieved 94.31% overall accuracy and an F1 score of 97.67%
for clouds on Resourcesat-2 data captured over the state of Uttarakhand, India.
These scores were found to be 30% higher than a Random Forest classifier, and
10% higher than a standalone single-resolution FCN. Apart from being useful for
cloud detection purposes, the study also highlights the potential of
convolutional neural networks for multi-sensor fusion problems.
- Abstract(参考訳): 雲と雪は可視・近赤外線(VNIR)範囲に類似したスペクトル特性を持ち、高解像度のVNIR画像では区別が難しい。
雲は反射性が高く、雪は吸収性であるショートウェーブ赤外線(SWIR)バンドを導入することでこの問題に対処する。
SWIRは通常、VNIRに比べて低分解能であるので、VNIR画像の雲や雪を効果的に検出できる多分解能完全畳み込みニューラルネットワーク(FCN)を提案する。
深部FCN内に多分解能帯域を融合し,高次VNIR解像度でセマンティックセグメンテーションを行う。
このような統合ベースの分類器はエンドツーエンドで訓練され、全体的な精度は94.31%に達し、インド・ウッタラカンド州で撮影されたResourcesat-2のデータ上の雲のF1スコアは97.67%に達した。
これらのスコアはランダムフォレスト分類器よりも30%高く,スタンドアロンのfcnよりも10%高い値を示した。
この研究は、クラウド検出の目的だけでなく、マルチセンサー融合問題に対する畳み込みニューラルネットワークの可能性も強調している。
関連論文リスト
- DPAFNet:Dual Path Attention Fusion Network for Single Image Deraining [0.0]
画像雨の除去は、常に低レベルの視覚タスクの一般的なブランチである。
ほとんどのニューラルネットワークは、畳み込みニューラルネットワークやトランスフォーマーのみを使用するなど、分岐しない。
本稿では,デュアルブランチアテンション融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-01-16T08:01:09Z) - Distribution-aware Interactive Attention Network and Large-scale Cloud
Recognition Benchmark on FY-4A Satellite Image [24.09239785062109]
我々は,正確なクラウド認識のための新しいデータセットを開発した。
領域適応法を用いて,70,419個の画像ラベル対を投影,時間分解能,空間分解能の点で整列する。
また,高解像度ブランチと並列クロスブランチにより画素レベルの詳細を保存できる分散対応インタラクティブアテンションネットワーク(DIAnet)を導入する。
論文 参考訳(メタデータ) (2024-01-06T09:58:09Z) - Efficient View Synthesis with Neural Radiance Distribution Field [61.22920276806721]
我々は,リアルタイムに効率的なビュー合成を目標とするニューラルレージアンス分布場(NeRDF)という新しい表現を提案する。
我々は、NeLFのように1ピクセル当たりの1つのネットワーク転送でレンダリング速度を保ちながら、NeRFに似た小さなネットワークを使用する。
実験の結果,提案手法は既存の手法よりも速度,品質,ネットワークサイズとのトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2023-08-22T02:23:28Z) - R2L: Distilling Neural Radiance Field to Neural Light Field for
Efficient Novel View Synthesis [76.07010495581535]
一つのピクセルをレンダリングするには、数百回もNeural Radiance Fieldネットワークに問い合わせる必要がある。
NeLFは、新しい視点において、NeRFに対してより直接的な表現を提示する。
ディープNeLFネットワークをうまく学習する鍵は、十分なデータを持つことである。
論文 参考訳(メタデータ) (2022-03-31T17:57:05Z) - NeRF-SR: High-Quality Neural Radiance Fields using Super-Sampling [82.99453001445478]
主に低分解能(LR)入力を用いた高分解能(HR)新規ビュー合成のソリューションであるNeRF-SRを提案する。
提案手法は,多層パーセプトロンを用いて各点密度と色を予測するニューラルレージアンス場(NeRF)上に構築されている。
論文 参考訳(メタデータ) (2021-12-03T07:33:47Z) - Learning Neural Light Fields with Ray-Space Embedding Networks [51.88457861982689]
我々は、コンパクトで、光線に沿った統合放射率を直接予測する新しいニューラル光場表現を提案する。
提案手法は,Stanford Light Field データセットのような,高密度の前方向きデータセットの最先端品質を実現する。
論文 参考訳(メタデータ) (2021-12-02T18:59:51Z) - VPFNet: Improving 3D Object Detection with Virtual Point based LiDAR and
Stereo Data Fusion [62.24001258298076]
VPFNetは、ポイントクラウドとイメージデータを仮想のポイントで巧みに調整し集約する新しいアーキテクチャである。
当社のVPFNetは,KITTIテストセットで83.21%の中等度3D AP,91.86%中等度BEV APを達成し,2021年5月21日以来の1位となった。
論文 参考訳(メタデータ) (2021-11-29T08:51:20Z) - Generation of the NIR spectral Band for Satellite Images with
Convolutional Neural Networks [0.0]
ディープニューラルネットワークは、画像の着色問題など、人工的なスペクトル情報を生成することができる。
我々は,高解像度衛星画像のRGBチャネルのみを用いて,NIR帯域生成作業におけるGAN(Generative Adversarial Network)アプローチについて検討した。
論文 参考訳(メタデータ) (2021-06-13T15:14:57Z) - A lightweight deep learning based cloud detection method for Sentinel-2A
imagery fusing multi-scale spectral and spatial features [17.914305435378783]
マルチスケールスペクトル・空間特性(CDFM3SF)を融合したクラウド検出のための軽量ネットワークを提案する。
CDFM3SFは、従来のクラウド検出方法と最先端のディープラーニングベースの手法を精度と速度の両方で上回る。
論文 参考訳(メタデータ) (2021-04-29T09:36:42Z) - R-AGNO-RPN: A LIDAR-Camera Region Deep Network for Resolution-Agnostic
Detection [3.4761212729163313]
3次元点雲とRGB画像を融合した領域提案ネットワークR-AGNO-RPNを提案する。
私たちのアプローチは、低点のクラウド解像度にも適用できるように設計されています。
論文 参考訳(メタデータ) (2020-12-10T15:22:58Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。