論文の概要: SAM-Aug: Leveraging SAM Priors for Few-Shot Parcel Segmentation in Satellite Time Series
- arxiv url: http://arxiv.org/abs/2601.09110v1
- Date: Wed, 14 Jan 2026 03:18:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.239953
- Title: SAM-Aug: Leveraging SAM Priors for Few-Shot Parcel Segmentation in Satellite Time Series
- Title(参考訳): SAM-Aug:衛星時系列におけるFew-ShotパーセルセグメンテーションのためのSAMプリミティブの活用
- Authors: Kai Hu, Yaozu Feng, Vladimir Lysenko, Ya Guo Member, Huayi Wu,
- Abstract要約: そこで本研究では,少数のランドカバーマッピングを改善するためのアノテーション効率のよい新しいフレームワークSAM-Augを提案する。
提案手法は, 時間列から雲のない合成画像を構築し, SAMを教師なしで適用する。
PASTIS-Rベンチマークの実験では5%のラベル付き設定でSAM-Augの有効性と堅牢性を示した。
- 参考スコア(独自算出の注目度): 3.4368348203064283
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few-shot semantic segmentation of time-series remote sensing images remains a critical challenge, particularly in regions where labeled data is scarce or costly to obtain. While state-of-the-art models perform well under full supervision, their performance degrades significantly under limited labeling, limiting their real-world applicability. In this work, we propose SAM-Aug, a new annotation-efficient framework that leverages the geometry-aware segmentation capability of the Segment Anything Model (SAM) to improve few-shot land cover mapping. Our approach constructs cloud-free composite images from temporal sequences and applies SAM in a fully unsupervised manner to generate geometry-aware mask priors. These priors are then integrated into training through a proposed loss function called RegionSmoothLoss, which enforces prediction consistency within each SAM-derived region across temporal frames, effectively regularizing the model to respect semantically coherent structures. Extensive experiments on the PASTIS-R benchmark under a 5 percent labeled setting demonstrate the effectiveness and robustness of SAM-Aug. Averaged over three random seeds (42, 2025, 4090), our method achieves a mean test mIoU of 36.21 percent, outperforming the state-of-the-art baseline by +2.33 percentage points, a relative improvement of 6.89 percent. Notably, on the most favorable split (seed=42), SAM-Aug reaches a test mIoU of 40.28 percent, representing an 11.2 percent relative gain with no additional labeled data. The consistent improvement across all seeds confirms the generalization power of leveraging foundation model priors under annotation scarcity. Our results highlight that vision models like SAM can serve as useful regularizers in few-shot remote sensing learning, offering a scalable and plug-and-play solution for land cover monitoring without requiring manual annotations or model fine-tuning.
- Abstract(参考訳): 時系列リモートセンシング画像のセマンティックセマンティックセグメンテーションは、特にラベル付きデータが少ない、あるいは取得にコストがかかる地域では、依然として重要な課題である。
最先端モデルは完全な監督下では良好に機能するが、その性能はラベリングの制限下で著しく低下し、現実の応用性が制限される。
本研究では,Segment Anything Model (SAM) のジオメトリ・アウェア・セグメンテーション機能を活用し,ランドカバーマッピングを改良した新しいアノテーション効率フレームワーク SAM-Aug を提案する。
提案手法は, 時空間列から雲のない合成画像を構築し, SAMを完全に教師なしの方法で適用し, 幾何認識マスクの先行画像を生成する。
これらの事前はRereaSmoothLossと呼ばれる提案された損失関数を通じてトレーニングに統合され、時間フレーム間のSAM由来の各領域内での予測一貫性を強制し、意味的に一貫性のある構造を尊重するモデルを効果的に正規化する。
PASTIS-Rベンチマークの5%のラベル付き設定による大規模な実験はSAM-Augの有効性と堅牢性を示している。
3つのランダムな種子(42,2025,4090)を平均すると、平均mIoUは36.21パーセントに達し、最先端のベースラインを+2.33ポイント上回り、相対的な改善は6.89パーセントである。
特に、最も好まれるスプリット(シード=42)では、SAM-Augは40.28パーセントのmIoUに達し、追加のラベル付きデータを持たない11.2%の相対的なゲインを示している。
すべての種子を一貫した改良は、アノテーション不足の下で基礎モデルに先行する手法を活用する一般化力を裏付けるものである。
この結果から,SAMのような視覚モデルは,手動のアノテーションやモデル微調整を必要とせずに,ランドカバー監視のためのスケーラブルでプラグアンドプレイなソリューションとして,数ショットのリモートセンシング学習において有用なレギュレータとして機能することが示唆された。
関連論文リスト
- Boundary-Aware Test-Time Adaptation for Zero-Shot Medical Image Segmentation [12.159529070716824]
BA-TTA-SAMはテスト時間適応によるSAMのゼロショットセグメンテーション性能を向上させるテスト時間適応フレームワークである。
我々のフレームワークは、医用画像分割における最先端モデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-12-04T07:08:21Z) - TASAM: Terrain-and-Aware Segment Anything Model for Temporal-Scale Remote Sensing Segmentation [20.89385225170904]
Segment Anything Model (SAM)は、自然画像領域にまたがる印象的なゼロショットセグメンテーション機能を実証した。
本稿では,高解像度リモートセンシング画像セグメンテーションに特化して設計された SAM の地形・時間的拡張である TASAM を紹介する。
論文 参考訳(メタデータ) (2025-09-19T09:24:24Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - RobustSAM: Segment Anything Robustly on Degraded Images [19.767828436963317]
Segment Anything Model (SAM) は画像セグメンテーションにおける変換的アプローチとして登場した。
低画質画像におけるSAMの性能を向上させるRobust Segment Anything Model (RobustSAM)を提案する。
提案手法は, SAMに基づくダウンストリームタスクにおいて, 単一画像のデハージングやデブロアリングなどの性能を効果的に向上することを目的としている。
論文 参考訳(メタデータ) (2024-06-13T23:33:59Z) - Stitching, Fine-tuning, Re-training: A SAM-enabled Framework for Semi-supervised 3D Medical Image Segmentation [40.79197318484472]
SAMファインチューニングは, 医用画像のセグメンテーションにおいて, 完全に教師された方法で顕著な性能を示した。
SFR(Stitching, Fine-tuning, Re-training)という3段階のフレームワークを提案する。
我々のSFRフレームワークはプラグイン・アンド・プレイであり、様々な人気のある半教師付き手法と容易に互換性がある。
論文 参考訳(メタデータ) (2024-03-17T14:30:56Z) - Stable Segment Anything Model [79.9005670886038]
SAM(Segment Anything Model)は、高品質なプロンプトが与えられた場合、顕著に迅速なセグメンテーションを実現する。
本稿では,SAMのセグメンテーション安定性について,多様なプロンプト特性のスペクトルにわたって包括的解析を行った。
1)SAMのセグメンテーション安定性を広範囲に改善し,2)SAMの強力なセグメンテーション効率と一般化を維持した。
論文 参考訳(メタデータ) (2023-11-27T12:51:42Z) - Zero-Shot Refinement of Buildings' Segmentation Models using SAM [6.110856077714895]
本稿では,既存モデルの一般化損失に対処するために基礎モデルを適用する新しいアプローチを提案する。
いくつかのモデルの中で、私たちはSegment Anything Model(SAM)に焦点を当てています。
SAMは認識機能を提供しないので、ローカライズされたオブジェクトの分類とタグ付けに失敗する。
この新しいアプローチはSAMを認識能力で強化する。
論文 参考訳(メタデータ) (2023-10-03T07:19:59Z) - Efficient Sharpness-aware Minimization for Improved Training of Neural
Networks [146.2011175973769]
本稿では,SAM s の効率を高コストで向上する高効率シャープネス認識最小化器 (M) を提案する。
Mには、Stochastic Weight PerturbationとSharpness-Sensitive Data Selectionという、2つの新しい効果的なトレーニング戦略が含まれている。
我々は、CIFARとImageNetデータセットの広範な実験を通して、ESAMはSAMよりも100%余分な計算を40%のvis-a-visベースに必要とせずに効率を向上させることを示した。
論文 参考訳(メタデータ) (2021-10-07T02:20:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。