論文の概要: OpenEarthSensing: Large-Scale Fine-Grained Benchmark for Open-World Remote Sensing
- arxiv url: http://arxiv.org/abs/2502.20668v2
- Date: Wed, 30 Jul 2025 06:04:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 14:05:50.904205
- Title: OpenEarthSensing: Large-Scale Fine-Grained Benchmark for Open-World Remote Sensing
- Title(参考訳): OpenEarthSensing: 大規模ファイングラインドベンチマークによるオープンワールドリモートセンシング
- Authors: Xiang Xiang, Zhuo Xu, Yao Deng, Qinhao Zhou, Yifan Liang, Ke Chen, Qingfang Zheng, Yaowei Wang, Xilin Chen, Wen Gao,
- Abstract要約: オープンワールドリモートセンシングのための大規模きめ細かいベンチマークである textbfOpenEarthSensing (OES) を紹介する。
OESには189のシーンとオブジェクトのカテゴリが含まれており、現実世界で起こりうる潜在的なセマンティックシフトの大部分をカバーしている。
- 参考スコア(独自算出の注目度): 57.050679160659705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advancement of remote sensing, including satellite systems, facilitates the continuous acquisition of remote sensing imagery globally, introducing novel challenges for achieving open-world tasks. Deployed models need to continuously adjust to a constant influx of new data, which frequently exhibits diverse shifts from the data encountered during the training phase. To effectively handle the new data, models are required to detect semantic shifts, adapt to covariate shifts, and continuously update their parameters without forgetting learned knowledge, as has been considered in works on a variety of open-world tasks. However, existing studies are typically conducted within a single dataset to simulate realistic conditions, with a lack of large-scale benchmarks capable of evaluating multiple open-world tasks. In this paper, we introduce \textbf{OpenEarthSensing (OES)}, a large-scale fine-grained benchmark for open-world remote sensing. OES includes 189 scene and object categories, covering the vast majority of potential semantic shifts that may occur in the real world. Additionally, to provide a more comprehensive testbed for evaluating the generalization performance, OES encompasses five data domains with significant covariate shifts, including two RGB satellite domains, one RGB aerial domain, one multispectral RGB domain, and one infrared domain. We evaluate the baselines and existing methods for diverse tasks on OES, demonstrating that it serves as a meaningful and challenging benchmark for open-world remote sensing. The proposed dataset OES is available at https://haiv-lab.github.io/OES.
- Abstract(参考訳): 衛星システムを含むリモートセンシングの進歩は、リモートセンシング画像の継続的な取得を促進し、オープンワールドのタスクを達成するための新たな課題を提起する。
デプロイされたモデルは、トレーニングフェーズで遭遇したデータから多彩なシフトを頻繁に示す、新しいデータの絶え間ない流入に継続的に調整する必要がある。
新しいデータを効果的に扱うためには、さまざまなオープンワールドタスクで検討されているように、モデルはセマンティックシフトを検出し、共変量シフトに適応し、学習した知識を忘れずにパラメータを継続的に更新する必要がある。
しかし、既存の研究は通常、1つのデータセットの中で現実的な条件をシミュレートするために行われ、複数のオープンワールドタスクを評価することのできる大規模なベンチマークが欠如している。
本稿では,オープンワールドリモートセンシングのための大規模きめ細かなベンチマークである \textbf{OpenEarthSensing (OES) を紹介する。
OESには189のシーンとオブジェクトのカテゴリが含まれており、現実世界で起こりうる潜在的なセマンティックシフトの大部分をカバーしている。
さらに、一般化性能を評価するためのより包括的なテストベッドを提供するために、OESは、2つのRGB衛星ドメイン、1つのRGB空中ドメイン、1つのマルチスペクトルRGBドメイン、1つの赤外線ドメインを含む、大きな共変量シフトを持つ5つのデータドメインを含んでいる。
我々は,OES上での多様なタスクのベースラインと既存手法を評価し,オープンワールドリモートセンシングのための有意義で挑戦的なベンチマークとして機能することを実証した。
提案されたデータセット OES は https://haiv-lab.github.io/OES で公開されている。
関連論文リスト
- OpenRSD: Towards Open-prompts for Object Detection in Remote Sensing Images [45.40710102095654]
オープンプロンプト型オブジェクト検出フレームワークOpenRSDを提案する。
OpenRSDはマルチモーダルプロンプトをサポートし、マルチタスク検出ヘッドを統合して精度とリアルタイム要求のバランスをとる。
YOLO-Worldと比較すると、OpenRSDは平均精度が8.7%高く、推定速度は20.8 FPSである。
論文 参考訳(メタデータ) (2025-03-08T10:08:46Z) - EarthView: A Large Scale Remote Sensing Dataset for Self-Supervision [72.84868704100595]
本稿では,地球モニタリングタスクにおける深層学習アプリケーションを強化することを目的とした,リモートセンシングデータの自己監督を目的としたデータセットを提案する。
このデータセットは15テラピクセルのグローバルリモートセンシングデータにまたがっており、NEON、Sentinel、Satellogicによる1mの空間解像度データの新たなリリースなど、さまざまなソースの画像を組み合わせている。
このデータセットは、リモートセンシングデータの異なる課題に取り組むために開発されたMasked Autoencoderである。
論文 参考訳(メタデータ) (2025-01-14T13:42:22Z) - EarthDial: Turning Multi-sensory Earth Observations to Interactive Dialogues [46.601134018876955]
EarthDialは、地球観測(EO)データ用に特別に設計された会話アシスタントである。
複雑な多感覚地球観測を対話的な自然言語対話に変換する。
EarthDialはマルチスペクトル、マルチテンポラル、マルチレゾリューション画像をサポートする。
論文 参考訳(メタデータ) (2024-12-19T18:57:13Z) - OpenAD: Open-World Autonomous Driving Benchmark for 3D Object Detection [47.9080685468069]
OpenADは3Dオブジェクト検出のための世界初のオープンワールド自動運転ベンチマークである。
OpenADは、マルチモーダル大言語モデル(MLLM)と統合されたコーナーケースの発見とアノテーションパイプライン上に構築されている。
論文 参考訳(メタデータ) (2024-11-26T01:50:06Z) - Generalized Few-Shot Semantic Segmentation in Remote Sensing: Challenge and Benchmark [18.636210870172675]
ほとんどショットのセマンティックセグメンテーションは、訓練中に見られない新しいクラスのラベル付き例から学ぶことをディープラーニングモデルに促す。
一般化された数ショットセグメンテーション設定では、モデルが新しいクラスに適応するだけでなく、トレーニングベースクラスで強力なパフォーマンスを維持することを奨励する追加の課題がある。
一般化された数ショット評価設定のためにラベル付けされた追加クラスを備えたOpenEarthMapの拡張データセットをリリースする。
論文 参考訳(メタデータ) (2024-09-17T14:20:47Z) - An Open-World, Diverse, Cross-Spatial-Temporal Benchmark for Dynamic Wild Person Re-Identification [58.5877965612088]
人物再識別(ReID)は、データ駆動のディープラーニング技術のおかげで大きな進歩を遂げました。
既存のベンチマークデータセットには多様性がなく、これらのデータに基づいてトレーニングされたモデルは、動的なワイルドシナリオに対してうまく一般化できない。
OWDと呼ばれる新しいOpen-World, Diverse, Cross-Spatial-Temporalデータセットを開発した。
論文 参考訳(メタデータ) (2024-03-22T11:21:51Z) - SARDet-100K: Towards Open-Source Benchmark and ToolKit for Large-Scale SAR Object Detection [79.23689506129733]
我々は,大規模SARオブジェクト検出のための新しいベンチマークデータセットとオープンソース手法を構築した。
私たちのデータセットであるSARDet-100Kは、10の既存のSAR検出データセットの厳格な調査、収集、標準化の結果です。
私たちの知る限りでは、SARDet-100KはCOCOレベルの大規模マルチクラスSARオブジェクト検出データセットとしては初めてのものです。
論文 参考訳(メタデータ) (2024-03-11T09:20:40Z) - SkySense: A Multi-Modal Remote Sensing Foundation Model Towards Universal Interpretation for Earth Observation Imagery [35.550999964460466]
本稿では,2150万の時間的シーケンスを持つマルチモーダルリモートセンシングデータセットを事前トレーニングした総称10億スケールモデルSkySenseを提案する。
我々の知る限り、SkySenseは今までで最大のマルチモーダルであり、モジュールを柔軟に組み合わせたり、個別に使用して様々なタスクに適合させることができる。
論文 参考訳(メタデータ) (2023-12-15T09:57:21Z) - Bayesian Embeddings for Few-Shot Open World Recognition [60.39866770427436]
埋め込みベースの数ショット学習アルゴリズムをオープンワールド認識設定に拡張する。
当社のフレームワークは,MiniImageNetとTieredImageNetによる数ショット学習データセットのオープンワールド拡張をベンチマークする。
論文 参考訳(メタデータ) (2021-07-29T00:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。