論文の概要: Annotation-Free Open-Vocabulary Segmentation for Remote-Sensing Images
- arxiv url: http://arxiv.org/abs/2508.18067v1
- Date: Mon, 25 Aug 2025 14:22:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.815099
- Title: Annotation-Free Open-Vocabulary Segmentation for Remote-Sensing Images
- Title(参考訳): リモートセンシング画像のための注釈なしオープンボキャブラリセグメンテーション
- Authors: Kaiyu Li, Xiangyong Cao, Ruixun Liu, Shihong Wang, Zixuan Jiang, Zhi Wang, Deyu Meng,
- Abstract要約: 本稿では,アノテーションのないRS画像のオープン語彙セグメンテーションのための最初のフレームワークであるSegEarth-OVを紹介する。
粗い特徴から高分解能空間の詳細を頑健に復元する普遍的なアップサンプラーであるSimFeatUpを提案する。
また、パッチ機能から固有のグローバルコンテキストを抽出するための、シンプルで効果的なグローバルバイアス緩和操作も提示する。
- 参考スコア(独自算出の注目度): 51.74614065919118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation of remote sensing (RS) images is pivotal for comprehensive Earth observation, but the demand for interpreting new object categories, coupled with the high expense of manual annotation, poses significant challenges. Although open-vocabulary semantic segmentation (OVSS) offers a promising solution, existing frameworks designed for natural images are insufficient for the unique complexities of RS data. They struggle with vast scale variations and fine-grained details, and their adaptation often relies on extensive, costly annotations. To address this critical gap, this paper introduces SegEarth-OV, the first framework for annotation-free open-vocabulary segmentation of RS images. Specifically, we propose SimFeatUp, a universal upsampler that robustly restores high-resolution spatial details from coarse features, correcting distorted target shapes without any task-specific post-training. We also present a simple yet effective Global Bias Alleviation operation to subtract the inherent global context from patch features, significantly enhancing local semantic fidelity. These components empower SegEarth-OV to effectively harness the rich semantics of pre-trained VLMs, making OVSS possible in optical RS contexts. Furthermore, to extend the framework's universality to other challenging RS modalities like SAR images, where large-scale VLMs are unavailable and expensive to create, we introduce AlignEarth, which is a distillation-based strategy and can efficiently transfer semantic knowledge from an optical VLM encoder to an SAR encoder, bypassing the need to build SAR foundation models from scratch and enabling universal OVSS across diverse sensor types. Extensive experiments on both optical and SAR datasets validate that SegEarth-OV can achieve dramatic improvements over the SOTA methods, establishing a robust foundation for annotation-free and open-world Earth observation.
- Abstract(参考訳): リモートセンシング(RS)画像のセマンティックセグメンテーションは、総合的な地球観測において重要であるが、新しいオブジェクトカテゴリの解釈への需要は、手作業によるアノテーションの高コストと相まって、大きな課題となっている。
Open-vocabulary semantic segmentation (OVSS)は有望な解決策を提供するが、自然画像用に設計された既存のフレームワークはRSデータの特異な複雑さに対して不十分である。
彼らは広範囲のバリエーションと細かな詳細に苦しむが、その適応はしばしば広範で高価な注釈に依存している。
この重要なギャップに対処するため,SegEarth-OVはアノテーションのないRS画像のオープン語彙セグメンテーションのための最初のフレームワークである。
具体的には、粗い特徴から高分解能な空間詳細を頑健に復元し、タスク固有のポストトレーニングなしで歪んだターゲット形状を補正するユニバーサルアップサンプラーであるSimFeatUpを提案する。
また、パッチの特徴から固有のグローバルコンテキストを抽出し、局所的な意味的忠実度を大幅に向上させる、シンプルで効果的なグローバルバイアス緩和操作を提案する。
これらのコンポーネントにより、SegEarth-OVは、事前訓練されたVLMのリッチなセマンティクスを効果的に活用し、光学RSコンテキストでOVSSを可能にする。
さらに,このフレームワークの普遍性を,大規模VLMが使用不能でコストがかかるSAR画像など,他のRSモダリティにまで拡張するために,光学VLMエンコーダからSARエンコーダへのセマンティック知識の伝達が可能な蒸留ベースの戦略であるAlignEarthを導入し,SARファンデーションモデルをスクラッチから構築する必要性を回避し,多様なセンサタイプにまたがる汎用OVSSを実現する。
光とSARの両方のデータセットに対する大規模な実験により、SegEarth-OVはSOTA法よりも劇的に改善できることが証明され、無注釈でオープンワールドな地球観測のための堅牢な基盤が確立された。
関連論文リスト
- DiffRIS: Enhancing Referring Remote Sensing Image Segmentation with Pre-trained Text-to-Image Diffusion Models [9.109484087832058]
DiffRISは、RRSISタスクのための事前訓練されたテキスト-画像拡散モデルのセマンティック理解機能を利用する新しいフレームワークである。
我々のフレームワークは、文脈認識アダプタ(CP-adapter)とクロスモーダル推論デコーダ(PCMRD)の2つの重要なイノベーションを導入している。
論文 参考訳(メタデータ) (2025-06-23T02:38:56Z) - SeG-SR: Integrating Semantic Knowledge into Remote Sensing Image Super-Resolution via Vision-Language Model [23.383837540690823]
高解像度(HR)リモートセンシング画像は、都市計画や環境モニタリングなど幅広い用途において重要な役割を担っている。
センサーやデータ転送リンクの制限により、実際に取得された画像は分解能の低下に悩まされることが多い。
RSISR(Remote Sensing Image Super-Resolution)は、ローレゾリューション(LR)入力からHRイメージを再構築することを目的としており、直接HR画像を取得するためのコスト効率の良い代替手段を提供する。
論文 参考訳(メタデータ) (2025-05-29T02:38:34Z) - AuxDet: Auxiliary Metadata Matters for Omni-Domain Infrared Small Target Detection [58.67129770371016]
シーン認識最適化のためのテキストメタデータを組み込むことにより、IRSTDパラダイムを再定義する新しいIRSTDフレームワークを提案する。
AuxDetは最先端の手法を一貫して上回り、堅牢性と正確性を改善する上で補助情報の重要な役割を検証している。
論文 参考訳(メタデータ) (2025-05-21T07:02:05Z) - SegEarth-R1: Geospatial Pixel Reasoning via Large Language Model [61.97017867656831]
暗黙的な問合せと推論を可能にし,対象領域のマスクを生成する新しいタスク,すなわち地理空間的画素推論を導入する。
我々は,5,434枚の手動アノテート画像マスクと3万枚以上の暗黙的な質問応答ペアからなる,EarthReasonという,最初の大規模ベンチマークデータセットを構築し,リリースする。
SegEarth-R1は、推論タスクと参照セグメンテーションタスクの両方で最先端のパフォーマンスを実現し、従来のLCMベースのセグメンテーション手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2025-04-13T16:36:47Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。