論文の概要: CVPR MultiEarth 2023 Deforestation Estimation
Challenge:SpaceVision4Amazon
- arxiv url: http://arxiv.org/abs/2307.04715v1
- Date: Mon, 10 Jul 2023 17:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 12:12:01.563567
- Title: CVPR MultiEarth 2023 Deforestation Estimation
Challenge:SpaceVision4Amazon
- Title(参考訳): cvprマルチアース2023森林破壊予測チャレンジ:spacevision4amazon
- Authors: Sunita Arya, S Manthira Moorthi, Debajyoti Dhar
- Abstract要約: EO(Electro-Optical)とSAR(Synthetic Aperture Radar)の衛星画像を用いた注意誘導UNetアーキテクチャに基づく森林破壊推定手法を提案する。
光画像、Landsat-8およびSAR画像では、Sentinel-1データを使用して提案されたモデルのトレーニングと検証を行っている。
訓練期間中、ランドサット-8は93.45%のトレーニングと検証ピクセルの精度を達成し、センチネル-2は83.87%の精度を達成した。
- 参考スコア(独自算出の注目度): 5.156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a deforestation estimation method based on
attention guided UNet architecture using Electro-Optical (EO) and Synthetic
Aperture Radar (SAR) satellite imagery. For optical images, Landsat-8 and for
SAR imagery, Sentinel-1 data have been used to train and validate the proposed
model. Due to the unavailability of temporally and spatially collocated data,
individual model has been trained for each sensor. During training time
Landsat-8 model achieved training and validation pixel accuracy of 93.45% and
Sentinel-2 model achieved 83.87% pixel accuracy. During the test set
evaluation, the model achieved pixel accuracy of 84.70% with F1-Score of 0.79
and IoU of 0.69.
- Abstract(参考訳): 本稿では,Electro-Optical (EO) とSAR (Synthetic Aperture Radar) の衛星画像を用いた注意誘導UNetアーキテクチャに基づく森林破壊推定手法を提案する。
光画像、Landsat-8およびSAR画像では、Sentinel-1データを使用して提案されたモデルのトレーニングと検証を行っている。
時間的および空間的に収集されたデータの有効性のため、各センサに対して個別のモデルが訓練されている。
訓練中、ランドサット-8モデルは93.45%のトレーニングと検証ピクセル精度を達成し、センチネル-2モデルは83.87%の精度を達成した。
テストセットの評価中、このモデルは84.70%の画素精度を達成し、f1-score 0.79とiou 0.69であった。
関連論文リスト
- Semantic segmentation on multi-resolution optical and microwave data using deep learning [0.0]
畳み込みニューラルネットワークに基づく修正U-NetモデルとVGG-UNetモデルにより、衛星画像からオブジェクトを自動的に識別する。
Cartosat 2S (1m空間分解能)データセットが使用された。
ディープラーニングモデルは、95%以上の精度でテストデータセットから構築された形状と船を検出するために実装された。
論文 参考訳(メタデータ) (2024-11-12T06:33:09Z) - Enhancing Robustness of Human Detection Algorithms in Maritime SAR through Augmented Aerial Images to Simulate Weather Conditions [1.660242118349614]
本稿では,海中SARにおける人間の検出精度を向上させることを目的として,様々な標高と地質的位置を含む頑健なデータセットを評価する。
その結果, 強化データセットを用いたモデルでは, ヒトのリコールスコアが0.891から0.911の範囲で, YOLOv5lモデルでは3.4%向上した。
論文 参考訳(メタデータ) (2024-08-25T08:23:06Z) - Training Deep Learning Models with Hybrid Datasets for Robust Automatic Target Detection on real SAR images [0.13194391758295113]
そこで本研究では,MOCEMシミュレータを用いて合成目標シグネチャを用いたATDモデルの学習手法を提案する。
我々は、合成データと実データの間の領域ギャップを埋めるために特別に調整されたATDモデルを訓練する。
我々のアプローチは、トレーニングに人工目標のみを使用しながら、実データ上で平均精度の90%に達することができる。
論文 参考訳(メタデータ) (2024-05-15T09:26:24Z) - Whole-body Detection, Recognition and Identification at Altitude and
Range [57.445372305202405]
多様なデータセットに基づいて評価したエンドツーエンドシステムを提案する。
我々のアプローチでは、一般的な画像データセットで検出器を事前トレーニングし、BRIARの複雑なビデオや画像でそれを微調整する。
屋内・屋外・航空シナリオにおける様々な範囲や角度の異なる条件下で徹底的な評価を行う。
論文 参考訳(メタデータ) (2023-11-09T20:20:23Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Classification of structural building damage grades from multi-temporal
photogrammetric point clouds using a machine learning model trained on
virtual laser scanning data [58.720142291102135]
実世界の点雲からの多層建築物の損傷を自動的に評価する新しい手法を提案する。
我々は、仮想レーザースキャン(VLS)データに基づいて訓練された機械学習モデルを使用する。
このモデルでは、高いマルチターゲット分類精度(全精度:92.0% - 95.1%)が得られる。
論文 参考訳(メタデータ) (2023-02-24T12:04:46Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - Cross-Sensor Adversarial Domain Adaptation of Landsat-8 and Proba-V
images for Cloud Detection [1.5828697880068703]
同様の特徴を持つ光学センサーを搭載した地球観測衛星の数は、常に増え続けている。
抽出された放射能の差は精度を著しく低下させ、センサー間の知識と情報共有を損なう。
本稿では,2つの衛星センサ間の画像の統計的差異を低減し,転送学習モデルの性能を向上させるための領域適応を提案する。
論文 参考訳(メタデータ) (2020-06-10T16:16:01Z) - Unlimited Resolution Image Generation with R2D2-GANs [69.90258455164513]
本稿では,任意の解像度の高品質な画像を生成するための新しいシミュレーション手法を提案する。
この方法では、フル長のミッション中に収集したソナースキャンと同等の大きさのソナースキャンを合成することができる。
生成されたデータは、連続的で、現実的に見え、また、取得の実際の速度の少なくとも2倍の速さで生成される。
論文 参考訳(メタデータ) (2020-03-02T17:49:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。