論文の概要: CrossEarth-SAR: A SAR-Centric and Billion-Scale Geospatial Foundation Model for Domain Generalizable Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2603.12008v1
- Date: Thu, 12 Mar 2026 14:52:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.155127
- Title: CrossEarth-SAR: A SAR-Centric and Billion-Scale Geospatial Foundation Model for Domain Generalizable Semantic Segmentation
- Title(参考訳): CrossEarth-SAR: 領域一般化可能なセマンティックセマンティックセグメンテーションのためのSAR中心及び数十億ドル規模の地球空間基盤モデル
- Authors: Ziqi Ye, Ziyang Gong, Ning Liao, Xiaoxing Hu, Di Wang, Hongruixuan Chen, Chen Huang, Yiguo He, Yuru Jia, Xiaoxing Wang, Haipeng Wang, Xue Yang, Junchi Yan,
- Abstract要約: 我々は、新しい物理誘導型スパース・オブ・エキスパート(MoE)アーキテクチャに基づいて構築された、最初の10億ドル規模のSARビジョン基盤モデルであるCrossEarth-SARを紹介する。
大規模な事前トレーニングを容易にするために,公共およびプライベートなSAR画像を統合する弱く完全に教師付きデータセットであるCrossEarth-SAR-200Kを開発した。
また、8つの異なる領域ギャップをまたいだ22のサブベンチマークからなるベンチマークスイートを導入し、SAR画像上でのドメイン一般化セマンティックセマンティックセグメンテーションのための最初の統一標準を確立した。
- 参考スコア(独自算出の注目度): 51.94680303125737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic Aperture Radar (SAR) enables global, all-weather earth observation. However, owing to diverse imaging mechanisms, domain shifts across sensors and regions severely hinder its semantic generalization. To address this, we present CrossEarth-SAR, the first billion-scale SAR vision foundation model built upon a novel physics-guided sparse mixture-of-experts (MoE) architecture incorporating physical descriptors, explicitly designed for cross-domain semantic segmentation. To facilitate large-scale pre-training, we develop CrossEarth-SAR-200K, a weakly and fully supervised dataset that unifies public and private SAR imagery. We also introduce a benchmark suite comprising 22 sub-benchmarks across 8 distinct domain gaps, establishing the first unified standard for domain generalization semantic segmentation on SAR imagery. Extensive experiments demonstrate that CrossEarth-SAR achieves state-of-the-art results on 20 benchmarks, surpassing previous methods by over 10\% mIoU on some benchmarks under multi-gap transfer. All code, benchmark and datasets will be publicly available.
- Abstract(参考訳): 合成開口レーダ(SAR)は地球の全地球観測を可能にする。
しかし、多様なイメージング機構のため、センサーや領域間のドメインシフトはセマンティックな一般化を著しく妨げている。
そこで本研究では,物理記述子を組み込んだ新しい物理誘導型スパース・ミックス・オブ・エキスパート(MoE)アーキテクチャ上に構築された,最初の10億ドル規模のSARビジョン基盤モデルであるCrossEarth-SARを提案する。
大規模な事前トレーニングを容易にするために,公共およびプライベートなSAR画像を統合する弱く完全に教師付きデータセットであるCrossEarth-SAR-200Kを開発した。
また、8つの異なる領域ギャップをまたいだ22のサブベンチマークからなるベンチマークスイートを導入し、SAR画像上でのドメイン一般化セマンティックセマンティックセグメンテーションのための最初の統一標準を確立した。
大規模な実験により、クロスアース-SARは20のベンチマークで最先端の結果を達成し、マルチギャップ転送中のベンチマークでは、以前の手法を10\% mIoU以上上回る結果となった。
すべてのコード、ベンチマーク、データセットが公開される。
関連論文リスト
- FUSAR-KLIP: Towards Multimodal Foundation Models for Remote Sensing [16.948824707021412]
クロスモーダル人工知能は近年広く注目を集めており、自然画像の研究において大きな進歩を遂げている。
既存の手法は主にRGB画像用に設計されており、合成開口レーダ(SAR)画像のモデリングにおいて大きなギャップを残している。
本稿では,再利用可能なデータと評価ベースラインとともに,初の汎用SARマルチモーダル基盤モデルであるFUSAR-KLIPを提案する。
論文 参考訳(メタデータ) (2025-09-28T15:03:25Z) - OpenEarthSensing: Large-Scale Fine-Grained Benchmark for Open-World Remote Sensing [57.050679160659705]
オープンワールドリモートセンシングのための大規模きめ細かいベンチマークである textbfOpenEarthSensing (OES) を紹介する。
OESには189のシーンとオブジェクトのカテゴリが含まれており、現実世界で起こりうる潜在的なセマンティックシフトの大部分をカバーしている。
論文 参考訳(メタデータ) (2025-02-28T02:49:52Z) - CrossEarth: Geospatial Vision Foundation Model for Domain Generalizable Remote Sensing Semantic Segmentation [85.22910555280414]
CrossEarthはセマンティックセグメンテーションのためのビジョン基盤モデルである。
CrossEarthは、特別に設計されたデータレベルのEarth-Style Injectionパイプラインを通じて、強力なクロスドメインの一般化を実証する。
セマンティックセグメンテーションタスクのために,各領域,スペクトル帯域,プラットフォーム,気候の32のクロスドメイン設定からなるRSDGベンチマークをキュレートした。
論文 参考訳(メタデータ) (2024-10-30T01:22:37Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。