論文の概要: SERA-H: Beyond Native Sentinel Spatial Limits for High-Resolution Canopy Height Mapping
- arxiv url: http://arxiv.org/abs/2512.18128v1
- Date: Fri, 19 Dec 2025 23:23:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.198871
- Title: SERA-H: Beyond Native Sentinel Spatial Limits for High-Resolution Canopy Height Mapping
- Title(参考訳): SERA-H:高分解能キャノピー高さマッピングのためのネイティブセンチネル空間限界を超えて
- Authors: Thomas Boudras, Martin Schwartz, Rasmus Fensholt, Martin Brandt, Ibrahim Fayad, Jean-Pierre Wigneron, Gabriel Belouze, Fajwel Fogel, Philippe Ciais,
- Abstract要約: 森林管理と生物多様性モニタリングには高分解能の天蓋の高さマッピングが不可欠である。
超高分解能モジュールと時間的アテンションエンコーディングを組み合わせたエンドツーエンドモデルSERA-Hを提案する。
本モデルでは,自由利用可能なSentinel-1とSentinel-2時系列データから2.5mの高さマップを生成する。
- 参考スコア(独自算出の注目度): 3.8902217877872034
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: High-resolution mapping of canopy height is essential for forest management and biodiversity monitoring. Although recent studies have led to the advent of deep learning methods using satellite imagery to predict height maps, these approaches often face a trade-off between data accessibility and spatial resolution. To overcome these limitations, we present SERA-H, an end-to-end model combining a super-resolution module (EDSR) and temporal attention encoding (UTAE). Trained under the supervision of high-density LiDAR data (ALS), our model generates 2.5 m resolution height maps from freely available Sentinel-1 and Sentinel-2 (10 m) time series data. Evaluated on an open-source benchmark dataset in France, SERA-H, with a MAE of 2.6 m and a coefficient of determination of 0.82, not only outperforms standard Sentinel-1/2 baselines but also achieves performance comparable to or better than methods relying on commercial very high-resolution imagery (SPOT-6/7, PlanetScope, Maxar). These results demonstrate that combining high-resolution supervision with the spatiotemporal information embedded in time series enables the reconstruction of details beyond the input sensors' native resolution. SERA-H opens the possibility of freely mapping forests with high revisit frequency, achieving accuracy comparable to that of costly commercial imagery. The source code is available at https://github.com/ThomasBoudras/SERA-H#
- Abstract(参考訳): 森林管理と生物多様性モニタリングには高分解能の天蓋の高さマッピングが不可欠である。
近年の研究では衛星画像を用いた高度マップの深層学習手法が出現しているが、これらの手法はデータアクセシビリティと空間分解能のトレードオフに直面していることが多い。
これらの制約を克服するため,超解像モジュール (EDSR) と時間アテンション符号化 (UTAE) を組み合わせた終端モデルSERA-Hを提案する。
高密度LiDARデータ (ALS) の監督の下で, 使用可能なSentinel-1とSentinel-2 (10m) 時系列データから2.5mの高解像度マップを生成する。
フランスのオープンソースのベンチマークデータセットSERA-Hは、MAEが2.6m、決定係数が0.82と評価されており、標準のSentinel-1/2ベースラインを上回るだけでなく、商用の非常に高解像度画像(SPOT-6/7、PlanetScope、Maxar)に依存する手法に匹敵する性能を達成している。
これらの結果は,高解像度の監視と時系列に埋め込まれた時空間情報を組み合わせることで,入力センサのネイティブ解像度を超える詳細を再現できることを実証した。
SERA-Hは、高価な商用画像と同等の精度で、高い再訪頻度で森林を自由にマッピングできる可能性を開く。
ソースコードはhttps://github.com/ThomasBoudras/SERA-H#で入手できる。
関連論文リスト
- Super-Resolved Canopy Height Mapping from Sentinel-2 Time Series Using LiDAR HD Reference Data across Metropolitan France [0.9351726364879229]
本稿では,ツリーハイト回帰とスーパーリゾリューションのための新しいエンドツーエンドフレームワーク THREASURE-Net を紹介する。
このモデルは、LiDAR HDデータから得られた基準高さメトリクスを用いて、Sentinel-2時系列でトレーニングされる。
モデル変種を3種類評価し,2.5m,5m,10mで樹高予測を行った。
論文 参考訳(メタデータ) (2025-12-12T12:49:16Z) - An Efficient Remote Sensing Super Resolution Method Exploring Diffusion Priors and Multi-Modal Constraints for Crop Type Mapping [0.0]
超解像度は、低解像度でも歴史的に価値のあるリモートセンシング画像アーカイブを利用する方法を提供する。
現在の手法では、科学的に現実的なイメージを再構成するための現実的な制約として補助情報を限定的に活用している。
RSSR のための効率的な LSSR フレームワークを提案し,Landsat 8 と Sentinel 2 画像のペア化によるマルチモーダルデータセットを提案する。
論文 参考訳(メタデータ) (2025-10-27T14:34:52Z) - GeoLLaVA-8K: Scaling Remote-Sensing Multimodal Large Language Models to 8K Resolution [66.85537534339238]
GeoLLaVA-8Kは、入力を最大8K$times$8Kまで処理できるRS中心のマルチモーダルな大規模言語モデルである。
SuperRS-VQAとHighRS-VQAは、現在までに22の現実世界の対話タスクをカバーする、RSで最も高解像度の視覚言語データセットである。
論文 参考訳(メタデータ) (2025-05-27T16:05:03Z) - Multimodal deep learning for mapping forest dominant height by fusing
GEDI with earth observation data [5.309673841813994]
そこで本稿では,マルチモーダルアテンションリモートセンシングネットワーク(MARSNet)と呼ばれる新しいディープラーニングフレームワークを提案する。
MARSNetは、マルチスケール特徴を抽出するリモートセンシングデータモダリティごとに別々のエンコーダと、特徴と推定高さを融合する共有デコーダから構成される。
本研究は,GEDIとSAR,受動光学画像とを併用した多モード深層学習手法の有効性を示す。
論文 参考訳(メタデータ) (2023-11-20T14:02:50Z) - Semantic Segmentation in Satellite Hyperspectral Imagery by Deep Learning [54.094272065609815]
本稿では1D-Justo-LiuNetという軽量な1D-CNNモデルを提案する。
1D-Justo-LiuNetは、全てのテストモデルの中で最小のモデルサイズ (4,563 パラメータ) を持つ最大精度 (0.93) を達成する。
論文 参考訳(メタデータ) (2023-10-24T21:57:59Z) - Recurrent Multi-scale Transformer for High-Resolution Salient Object
Detection [68.65338791283298]
Salient Object Detection (SOD) は、画像やビデオの中で最も顕著なオブジェクトを識別し、セグメント化することを目的としている。
従来のSOD法は主に解像度の低い画像に限られており、高分解能SODの開発に適応することが困難である。
本研究ではまず,2K-8K解像度で10,500個の高品質なアノテート画像を含む新しいHRS10Kデータセットを提案する。
論文 参考訳(メタデータ) (2023-08-07T17:49:04Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - High-resolution canopy height map in the Landes forest (France) based on
GEDI, Sentinel-1, and Sentinel-2 data with a deep learning approach [0.044381279572631216]
マルチストリームリモートセンシングに基づく深層学習モデルを構築し,高分解能キャノピー高さマップを作成する。
モデル出力により、2020年時点での"Landes de Gascogne"森林全体の10m解像度の天蓋の高さマップを作成できる。
針葉樹林におけるすべての検証データセットについて,本モデルでは,同領域で利用可能な従来の天蓋高さモデルよりも優れた指標を示した。
論文 参考訳(メタデータ) (2022-12-20T14:14:37Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。