論文の概要: Very High-Resolution Forest Mapping with TanDEM-X InSAR Data and Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2505.03327v1
- Date: Tue, 06 May 2025 08:54:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.287464
- Title: Very High-Resolution Forest Mapping with TanDEM-X InSAR Data and Self-Supervised Learning
- Title(参考訳): TanDEM-X InSARデータと自己監視学習を用いた高分解能森林マッピング
- Authors: José-Luis Bueso-Bello, Benjamin Chauvel, Daniel Carcereri, Philipp Posovszky, Pietro Milillo, Jennifer Ruiz, Juan-Carlos Fernández-Diaz, Carolina González, Michele Martone, Ronny Hänsch, Paola Rizzoli,
- Abstract要約: 我々はTandDEM-Xミッションの高分解能を利用して森林を6mで地図化する。
このような高解像度な参照データセットの拡張に対処するため、自己教師あり学習技術について検討する。
ペンシルバニア州上空1mの森林・非森林基準マップでは、異なるトレーニングアプローチを比較することができる。
このテスト領域上で最高のパフォーマンスのアプローチを選択し、アマゾン熱帯雨林の実際の森林マッピングシナリオに適用する。
- 参考スコア(独自算出の注目度): 3.5188848736316407
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep learning models have shown encouraging capabilities for mapping accurately forests at medium resolution with TanDEM-X interferometric SAR data. Such models, as most of current state-of-the-art deep learning techniques in remote sensing, are trained in a fully-supervised way, which requires a large amount of labeled data for training and validation. In this work, our aim is to exploit the high-resolution capabilities of the TanDEM-X mission to map forests at 6 m. The goal is to overcome the intrinsic limitations posed by midresolution products, which affect, e.g., the detection of narrow roads within vegetated areas and the precise delineation of forested regions contours. To cope with the lack of extended reliable reference datasets at such a high resolution, we investigate self-supervised learning techniques for extracting highly informative representations from the input features, followed by a supervised training step with a significantly smaller number of reliable labels. A 1 m resolution forest/non-forest reference map over Pennsylvania, USA, allows for comparing different training approaches for the development of an effective forest mapping framework with limited labeled samples. We select the best-performing approach over this test region and apply it in a real-case forest mapping scenario over the Amazon rainforest, where only very few labeled data at high resolution are available. In this challenging scenario, the proposed self-supervised framework significantly enhances the classification accuracy with respect to fully-supervised methods, trained using the same amount of labeled data, representing an extremely promising starting point for large-scale, very high-resolution forest mapping with TanDEM-X data.
- Abstract(参考訳): 深層学習モデルは、TandEM-XインターフェロメトリSARデータを用いて、高解像度の森林を正確にマッピングする能力を示した。
リモートセンシングにおける現在の最先端のディープラーニング技術のほとんどは、トレーニングと検証のために大量のラベル付きデータを必要とする、完全に教師された方法でトレーニングされている。
本研究の目的は,TandEM-Xミッションの高分解能を利用して森林を6mで地図化することである。
本研究の目的は,中高分解能製品がもたらす本質的な限界を克服することであり,例えば,植生地帯内の狭い道路の検出や,森林地帯の輪郭の正確な起伏に影響を及ぼす。
このような高解像度の信頼度参照データセットの不足に対処するため、入力特徴から高い情報表現を抽出する自己教師付き学習手法について検討し、次いで、かなり少ない信頼性ラベルを持つ教師付きトレーニングステップを実施。
ペンシルバニア州上空1mの森林/非森林参照マップでは、限られたラベル付きサンプルで効率的な森林マッピングフレームワークを開発するための異なるトレーニングアプローチを比較することができる。
このテスト領域上で最高のパフォーマンスのアプローチを選択し、高解像度のラベル付きデータしか利用できないアマゾン熱帯雨林の実際の森林マッピングシナリオに適用する。
この挑戦的なシナリオでは、TanDEM-Xデータを用いた大規模で非常に高解像度の森林マッピングの出発点として非常に有望なラベル付きデータを用いて訓練された、完全教師付き手法に対する分類精度を大幅に向上させる。
関連論文リスト
- Semantic segmentation of forest stands using deep learning [0.0]
深層学習法はコンピュータビジョンにおいて大きな可能性を証明してきたが、森の起伏への応用は未解明のままである。
本研究では,マルチクラスセグメンテーション問題としてのフレーミングスタンドデライン化と,U-NetベースのDLフレームワークの適用という,新しいアプローチを提案する。
このモデルは、マルチスペクトル画像、ALSデータ、およびエキスパートインタプリタによって作成された既存のスタンドマップを用いて、訓練され評価された。
論文 参考訳(メタデータ) (2025-04-03T10:47:25Z) - TanDepth: Leveraging Global DEMs for Metric Monocular Depth Estimation in UAVs [5.6168844664788855]
本研究は,推定時間における相対的推定から距離深度を求めるための実用的スケール回復手法であるTanDepthを提示する。
提案手法は,GDEM(Global Digital Elevation Models)のスパース計測をカメラビューに投影することで活用する。
推定深度マップから接地点を選択して、投影された基準点と相関するクラスフィルタシミュレーションへの適応を示す。
論文 参考訳(メタデータ) (2024-09-08T15:54:43Z) - Forest Inspection Dataset for Aerial Semantic Segmentation and Depth
Estimation [6.635604919499181]
森林調査のための大規模航空データセットを新たに導入する。
現実世界と仮想的な自然環境の記録も含んでいる。
地域の森林破壊度を評価するための枠組みを開発する。
論文 参考訳(メタデータ) (2024-03-11T11:26:44Z) - EAT: Towards Long-Tailed Out-of-Distribution Detection [55.380390767978554]
本稿では,長い尾を持つOOD検出の課題に対処する。
主な困難は、尾クラスに属するサンプルとOODデータを区別することである。
本稿では,(1)複数の禁制クラスを導入して分布内クラス空間を拡大すること,(2)コンテキストリッチなOODデータに画像をオーバーレイすることでコンテキスト限定のテールクラスを拡大すること,の2つの簡単な考え方を提案する。
論文 参考訳(メタデータ) (2023-12-14T13:47:13Z) - Recognize Any Regions [55.76437190434433]
RegionSpotは、ローカライゼーション基盤モデルから位置認識ローカライゼーション知識と、ViLモデルからのセマンティック情報を統合する。
オープンワールドオブジェクト認識の実験では、私たちのRereaSpotは、以前の代替よりも大きなパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2023-11-02T16:31:49Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Deep Learning Model Transfer in Forest Mapping using Multi-source
Satellite SAR and Optical Images [0.08749675983608168]
プロットレベル測定を用いた事前学習モデルの対象領域へのモデル移行(ドメイン適応)。
森林構造と組成の異なる2つの異なるタイガ遺跡へのアプローチを実証した。
転送学習を活用することで、SeUNetの予測は2.70mと0.882のR$2$の根平均二乗誤差(RMSE)を達成した。
論文 参考訳(メタデータ) (2023-08-09T15:05:41Z) - Unsupervised Spike Depth Estimation via Cross-modality Cross-domain Knowledge Transfer [53.413305467674434]
スパイク深度推定をサポートするためにオープンソースのRGBデータを導入し,そのアノテーションと空間情報を活用する。
教師なしスパイク深さ推定を実現するために,クロスモーダルクロスドメイン(BiCross)フレームワークを提案する。
提案手法は,RGB指向の教師なし深度推定法と比較して,最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2022-08-26T09:35:20Z) - X-ModalNet: A Semi-Supervised Deep Cross-Modal Network for
Classification of Remote Sensing Data [69.37597254841052]
我々はX-ModalNetと呼ばれる新しいクロスモーダルディープラーニングフレームワークを提案する。
X-ModalNetは、ネットワークの上部にある高レベルな特徴によって構築されたアップダスタブルグラフ上にラベルを伝搬するため、うまく一般化する。
我々は2つのマルチモーダルリモートセンシングデータセット(HSI-MSIとHSI-SAR)上でX-ModalNetを評価し、いくつかの最先端手法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2020-06-24T15:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。