論文の概要: Multimodal deep learning for mapping forest dominant height by fusing
GEDI with earth observation data
- arxiv url: http://arxiv.org/abs/2311.11777v1
- Date: Mon, 20 Nov 2023 14:02:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 18:37:55.331734
- Title: Multimodal deep learning for mapping forest dominant height by fusing
GEDI with earth observation data
- Title(参考訳): GEDIと地球観測データとの融合による森林優占高のマルチモーダル深度学習
- Authors: Man Chen, Wenquan Dong, Hao Yu, Iain Woodhouse, Casey M. Ryan, Haoyu
Liu, Selena Georgiou, Edward T.A. Mitchard
- Abstract要約: そこで本稿では,マルチモーダルアテンションリモートセンシングネットワーク(MARSNet)と呼ばれる新しいディープラーニングフレームワークを提案する。
MARSNetは、マルチスケール特徴を抽出するリモートセンシングデータモダリティごとに別々のエンコーダと、特徴と推定高さを融合する共有デコーダから構成される。
本研究は,GEDIとSAR,受動光学画像とを併用した多モード深層学習手法の有効性を示す。
- 参考スコア(独自算出の注目度): 5.309673841813994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The integration of multisource remote sensing data and deep learning models
offers new possibilities for accurately mapping high spatial resolution forest
height. We found that GEDI relative heights (RH) metrics exhibited strong
correlation with the mean of the top 10 highest trees (dominant height)
measured in situ at the corresponding footprint locations. Consequently, we
proposed a novel deep learning framework termed the multi-modal attention
remote sensing network (MARSNet) to estimate forest dominant height by
extrapolating dominant height derived from GEDI, using Setinel-1 data, ALOS-2
PALSAR-2 data, Sentinel-2 optical data and ancillary data. MARSNet comprises
separate encoders for each remote sensing data modality to extract multi-scale
features, and a shared decoder to fuse the features and estimate height. Using
individual encoders for each remote sensing imagery avoids interference across
modalities and extracts distinct representations. To focus on the efficacious
information from each dataset, we reduced the prevalent spatial and band
redundancies in each remote sensing data by incorporating the extended spatial
and band reconstruction convolution modules in the encoders. MARSNet achieved
commendable performance in estimating dominant height, with an R2 of 0.62 and
RMSE of 2.82 m, outperforming the widely used random forest approach which
attained an R2 of 0.55 and RMSE of 3.05 m. Finally, we applied the trained
MARSNet model to generate wall-to-wall maps at 10 m resolution for Jilin,
China. Through independent validation using field measurements, MARSNet
demonstrated an R2 of 0.58 and RMSE of 3.76 m, compared to 0.41 and 4.37 m for
the random forest baseline. Our research demonstrates the effectiveness of a
multimodal deep learning approach fusing GEDI with SAR and passive optical
imagery for enhancing the accuracy of high resolution dominant height
estimation.
- Abstract(参考訳): マルチソースリモートセンシングデータとディープラーニングモデルの統合は、高空間解像度の森林高度を正確にマッピングする新たな可能性を提供する。
その結果,gedi相対高(rh)の指標は,実地で測定した樹高上位10本(優占高)の平均値と強い相関を示した。
そこで本研究では,gediから得られた優占高さをsetinel-1データ,alos-2 palsar-2データ,sentinel-2光学データ,補助データを用いて推定するマルチモーダル注意リモートセンシングネットワーク(marsnet)と呼ばれる新しいディープラーニングフレームワークを提案する。
MARSNetは、マルチスケール特徴を抽出するリモートセンシングデータモダリティごとに別々のエンコーダと、特徴と推定高さを融合する共有デコーダから構成される。
各リモートセンシングイメージに個々のエンコーダを使用することで、モダリティ間の干渉を回避し、異なる表現を抽出する。
本研究では,各データセットからの効率的な情報に焦点を合わせるため,エンコーダに拡張空間およびバンド再構成畳み込みモジュールを組み込むことにより,各リモートセンシングデータにおける空間およびバンドの冗長性を低減した。
MARSNetは、R2が0.62m、RMSEが2.82mであり、R2が0.55m、RMSEが3.05mと広く使われている。
最後に,習熟したMARSNetモデルを用いて,中国慈林の10m解像度の壁面マップを作成した。
フィールド測定による独立した検証を通じて、マーズネットは、ランダム森林のベースラインの0.41mと4.37mに対して、0.58mとrmse 3.76mのr2を実証した。
本研究では,gediとsarを用いたマルチモーダル深層学習手法と受動光学画像を用いた高分解能優性高さ推定の精度向上効果を実証する。
関連論文リスト
- LMFNet: An Efficient Multimodal Fusion Approach for Semantic Segmentation in High-Resolution Remote Sensing [25.016421338677816]
現在のメソッドは2種類のデータしか処理せず、追加のモダリティが提供できる豊富な情報を欠いていることが多い。
我々は,新しい textbfLightweight textbfMultimodal data textbfFusion textbfNetwork (LMFNet) を提案する。
LMFNetは、RGB、NirRG、DSMを含む様々なデータタイプを、重量共有型マルチブランチ・ビジョン・トランスフォーマーで同時に対応している。
論文 参考訳(メタデータ) (2024-04-21T13:29:42Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - NeRF-Det++: Incorporating Semantic Cues and Perspective-aware Depth
Supervision for Indoor Multi-View 3D Detection [72.0098999512727]
NeRF-Detは、NeRFを用いた屋内マルチビュー3次元検出において、表現学習の強化による優れた性能を実現している。
セマンティックエンハンスメント(セマンティックエンハンスメント)、パースペクティブ・アウェア・サンプリング(パースペクティブ・アウェア・サンプリング)、および順序深度監視を含む3つのソリューションを提案する。
結果として得られたアルゴリズムであるNeRF-Det++は、ScanNetV2とAR KITScenesデータセットで魅力的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-22T11:48:06Z) - Geo2SigMap: High-Fidelity RF Signal Mapping Using Geographic Databases [10.278799374600919]
Geo2SigMapは、地理データベースを用いた効率的かつ高忠実なRF信号マッピングのためのMLベースのフレームワークである。
われわれはOpenStreetMap、Blender、Sionnaの3つのオープンソースツールをシームレスに統合する自動化フレームワークを開発した。
その結果,Geo2SigMapは平均根平均2乗誤差(RMSE)を6.04dBで達成し,UEにおける基準信号受信電力(RSRP)を予測する。
論文 参考訳(メタデータ) (2023-12-21T21:26:09Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - High-resolution canopy height map in the Landes forest (France) based on
GEDI, Sentinel-1, and Sentinel-2 data with a deep learning approach [0.044381279572631216]
マルチストリームリモートセンシングに基づく深層学習モデルを構築し,高分解能キャノピー高さマップを作成する。
モデル出力により、2020年時点での"Landes de Gascogne"森林全体の10m解像度の天蓋の高さマップを作成できる。
針葉樹林におけるすべての検証データセットについて,本モデルでは,同領域で利用可能な従来の天蓋高さモデルよりも優れた指標を示した。
論文 参考訳(メタデータ) (2022-12-20T14:14:37Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Dual Swin-Transformer based Mutual Interactive Network for RGB-D Salient
Object Detection [67.33924278729903]
本研究では,Dual Swin-Transformerを用いたMutual Interactive Networkを提案する。
視覚入力における長距離依存をモデル化するために,RGBと奥行きモードの両方の機能抽出器としてSwin-Transformerを採用している。
5つの標準RGB-D SODベンチマークデータセットに関する総合的な実験は、提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2022-06-07T08:35:41Z) - DDU-Net: Dual-Decoder-U-Net for Road Extraction Using High-Resolution
Remote Sensing Images [19.07341794770722]
本稿では,Dual-Decoder-U-Net(DDU-Net)と呼ばれる深層ニューラルネットワークモデルを提案する。
提案したモデルは、最先端のDenseUNet、DeepLabv3+、D-LinkNetの6.5%、MIoUの平均インターセクションでは3.3%、F1スコアでは4%、4.8%、それぞれ2.1%を上回っている。
論文 参考訳(メタデータ) (2022-01-18T05:27:49Z) - An Attention-Fused Network for Semantic Segmentation of
Very-High-Resolution Remote Sensing Imagery [26.362854938949923]
注目融合ネットワーク(AFNet)という,新しい畳み込みニューラルネットワークアーキテクチャを提案する。
ISPRS Vaihingen 2DデータセットとISPRS Potsdam 2Dデータセットで、総精度91.7%、平均F1スコア90.96%の最先端のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-10T06:23:27Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。