論文の概要: Automatic Detection of Natural Disaster Effect on Paddy Field from
Satellite Images using Deep Learning Techniques
- arxiv url: http://arxiv.org/abs/2304.00622v1
- Date: Sun, 2 Apr 2023 20:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 17:14:32.171054
- Title: Automatic Detection of Natural Disaster Effect on Paddy Field from
Satellite Images using Deep Learning Techniques
- Title(参考訳): 深層学習技術を用いた衛星画像からの水田自然災害自動検出
- Authors: Tahmid Alavi Ishmam, Amin Ahsan Ali, Md Ahsraful Amin, A K M Mahbubur
Rahman
- Abstract要約: 本研究では,バングラデシュの自然災害による水田被害を高解像度衛星画像を用いて検出することを目的とする。
著者らは田畑被害の実態をフィールドレベルから分析した。
- 参考スコア(独自算出の注目度): 2.142991584970654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper aims to detect rice field damage from natural disasters in
Bangladesh using high-resolution satellite imagery. The authors developed
ground truth data for rice field damage from the field level. At first, NDVI
differences before and after the disaster are calculated to identify possible
crop loss. The areas equal to and above the 0.33 threshold are marked as crop
loss areas as significant changes are observed. The authors also verified crop
loss areas by collecting data from local farmers. Later, different bands of
satellite data (Red, Green, Blue) and (False Color Infrared) are useful to
detect crop loss area. We used the NDVI different images as ground truth to
train the DeepLabV3plus model. With RGB, we got IoU 0.41 and with FCI, we got
IoU 0.51. As FCI uses NIR, Red, Blue bands and NDVI is normalized difference
between NIR and Red bands, so greater FCI's IoU score than RGB is expected. But
RGB does not perform very badly here. So, where other bands are not available,
RGB can use to understand crop loss areas to some extent. The ground truth
developed in this paper can be used for segmentation models with very high
resolution RGB only images such as Bing, Google etc.
- Abstract(参考訳): 本研究では,バングラデシュの自然災害による水田被害を高解像度衛星画像を用いて検出することを目的とする。
著者らは,田畑被害の実態データを開発した。
まず、災害前後のNDVI差を算出し、農作物の損失を推定する。
0.33の閾値以上は、大きな変化が観測されるにつれて、作物の損失領域としてマークされる。
著者らはまた、現地の農家からデータを収集して作物の喪失地域を検証した。
その後、衛星データ(赤、緑、青)と(偽色赤外線)の異なる帯域が作物の損失領域を検出するのに有用である。
我々はNDVIの異なる画像を使ってDeepLabV3plusモデルをトレーニングした。
RGBではIoU 0.41、FCIではIoU 0.51です。
FCIは、NIR、赤、青のバンドとNDVIは、NIRと赤のバンドで正規化されているため、RGBよりも大きなFCIのIoUスコアが期待できる。
しかし、RGBはここではあまり役に立たない。
したがって、他のバンドが利用できない場合、RGBはある程度、作物の損失領域を理解するのに使える。
本稿では,Bing や Google などの高解像度 RGB 画像のみのセグメンテーションモデルに利用することができる。
関連論文リスト
- Towards RAW Object Detection in Diverse Conditions [65.30190654593842]
62のカテゴリにまたがる135,601のアノテーション付きインスタンスを備えた7,785の高分解能実RAW画像を提供するAODRawデータセットを紹介した。
sRGB と RAW の領域ギャップにより RAW オブジェクト検出の可能性は sRGB と RAW との事前学習によって制限されることがわかった。
我々は,RAW事前学習を支援するために,SRGBドメインで事前学習した市販のモデルから知識を抽出する。
論文 参考訳(メタデータ) (2024-11-24T01:23:04Z) - BSRAW: Improving Blind RAW Image Super-Resolution [63.408484584265985]
RAW領域におけるブラインド画像の超解像化に取り組む。
生センサデータを用いたトレーニングモデルに特化した,現実的な劣化パイプラインを設計する。
私たちのパイプラインでトレーニングしたBSRAWモデルは、リアルタイムRAW画像をスケールアップし、品質を向上させることができます。
論文 参考訳(メタデータ) (2023-12-24T14:17:28Z) - HalluciDet: Hallucinating RGB Modality for Person Detection Through Privileged Information [12.376615603048279]
HalluciDetは、オブジェクト検出のためのIR-RGB画像変換モデルである。
我々は、画像翻訳とIRの微調整のための最先端手法に対する我々のアプローチを実証的に比較した。
論文 参考訳(メタデータ) (2023-10-07T03:00:33Z) - Edge-guided Multi-domain RGB-to-TIR image Translation for Training
Vision Tasks with Challenging Labels [12.701191873813583]
注釈付き熱赤外(TIR)画像データセットの不足は、TIR画像ベースのディープラーニングネットワークを妨害し、RGBと同等の性能を持つ。
本稿では,エッジ保存に着目したマルチドメインRGBからTIRへの変換モデルを提案する。
我々は、終点誤差を平均56.5%改善した深部TIR画像に基づく光フロー推定と物体検出の教師あり学習を可能にし、最高の物体検出mAPは23.9%とした。
論文 参考訳(メタデータ) (2023-01-30T06:44:38Z) - Reversed Image Signal Processing and RAW Reconstruction. AIM 2022
Challenge Report [109.2135194765743]
本稿では,AIM 2022 Challenge on Reversed Image Signal Processing and RAW Reconstructionを紹介する。
我々は,メタデータを使わずにRGBから生のセンサイメージを回収し,ISP変換を「逆」することを目的としている。
論文 参考訳(メタデータ) (2022-10-20T10:43:53Z) - Translation, Scale and Rotation: Cross-Modal Alignment Meets
RGB-Infrared Vehicle Detection [10.460296317901662]
空中RGB-IR画像における検出は, クロスモーダルな不整合問題に悩まされている。
本稿では,TSRA (Translation-Scale-Rotation Alignment) モジュールを提案する。
TSRAモジュールに基づく2ストリーム特徴アライメント検出器(TSFADet)は、空中画像におけるRGB-IRオブジェクト検出のために構築されている。
論文 参考訳(メタデータ) (2022-09-28T03:06:18Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Learning RAW-to-sRGB Mappings with Inaccurately Aligned Supervision [76.41657124981549]
本稿では,画像アライメントとRAW-to-sRGBマッピングのための共同学習モデルを提案する。
実験の結果,本手法はZRRおよびSR-RAWデータセットの最先端に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2021-08-18T12:41:36Z) - Generation of the NIR spectral Band for Satellite Images with
Convolutional Neural Networks [0.0]
ディープニューラルネットワークは、画像の着色問題など、人工的なスペクトル情報を生成することができる。
我々は,高解像度衛星画像のRGBチャネルのみを用いて,NIR帯域生成作業におけるGAN(Generative Adversarial Network)アプローチについて検討した。
論文 参考訳(メタデータ) (2021-06-13T15:14:57Z) - Synergistic saliency and depth prediction for RGB-D saliency detection [76.27406945671379]
既存のRGB-Dサリエンシデータセットは小さく、多様なシナリオに対して過度に適合し、限定的な一般化につながる可能性がある。
そこで本研究では,RGB-Dサリエンシ検出のための半教師付きシステムを提案する。
論文 参考訳(メタデータ) (2020-07-03T14:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。