論文の概要: ReSAM: Refine, Requery, and Reinforce: Self-Prompting Point-Supervised Segmentation for Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2511.21606v1
- Date: Wed, 26 Nov 2025 17:26:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.221602
- Title: ReSAM: Refine, Requery, and Reinforce: Self-Prompting Point-Supervised Segmentation for Remote Sensing Images
- Title(参考訳): ReSAM:Refine, Requery, Reinforce: リモートセンシング画像のためのセルフプロンピングポイントスーパービジョンセグメンテーション
- Authors: M. Naseer Subhani,
- Abstract要約: リモートセンシング画像にインタラクティブなセグメンテーションモデルを適用するセルフプロンプト・ポイント制御フレームワークを提案する。
提案手法を,WHU,HRSID,NWPU VHR-10を含む3つのRSIベンチマークデータセット上で評価した。
この結果から, リモートセンシングアプリケーションにおいて, 自己プロンプトとセマンティックアライメントが, 拡張性, ポイントレベルのセグメンテーションモデルへの適応に有効であることが示唆された。
- 参考スコア(独自算出の注目度): 0.5076419064097732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interactive segmentation models such as the Segment Anything Model (SAM) have demonstrated remarkable generalization on natural images, but perform suboptimally on remote sensing imagery (RSI) due to severe domain shift and the scarcity of dense annotations. To address this, we propose a self-prompting, point-supervised framework that adapts SAM to RSIs using only sparse point annotations. Our method employs a Refine-Requery-Reinforce loop, where coarse pseudo-masks are generated from initial points (Refine), improved with self-constructed box prompts (Requery), and embeddings are aligned across iterations to reduce confirmation bias (Reinforce). Without relying on full-mask supervision, our approach progressively enhances SAM's segmentation quality and domain robustness through self-guided prompt adaptation . We evaluate our proposed method on three RSI benchmark datasets, including WHU, HRSID, and NWPU VHR-10, showing that our method consistently surpasses pretrained SAM and recent point-supervised segmentation methods. Our results demonstrate that self-prompting and semantic alignment provide an efficient path towards scalable, point-level adaptation of foundation segmentation models for remote sensing applications.
- Abstract(参考訳): SAM(Segment Anything Model)のような対話型セグメンテーションモデルは、自然画像に顕著な一般化を示すが、高度ドメインシフトと高密度アノテーションの不足により、リモートセンシング画像(RSI)に過度に最適化される。
これを解決するために,スパースポイントアノテーションのみを用いてSAMをRSIに適応させるセルフプロンプト・ポイント管理フレームワークを提案する。
提案手法では,初期点(Refine)から粗い擬似マスクを生成するRefine-Requery-Reinforceループを用い,自己構築ボックスプロンプト(Requery)により改善し,組込みを反復的に整列させて確認バイアスを低減する(Reinforce)。
本手法は,全マスクの監督に頼らず,自己誘導型プロンプト適応によりSAMのセグメンテーション品質とドメインロバスト性を徐々に向上させる。
提案手法は, WHU, HRSID, NWPU VHR-10を含む3つのRSIベンチマークデータセットを用いて評価し, 事前学習されたSAMおよび最近の点教師付きセグメンテーション手法を一貫して上回っていることを示す。
この結果から, リモートセンシングアプリケーションにおいて, 自己プロンプトとセマンティックアライメントが, 拡張性, ポイントレベルのセグメンテーションモデルへの適応に有効であることが示唆された。
関連論文リスト
- Exploring Efficient Open-Vocabulary Segmentation in the Remote Sensing [55.291219073365546]
Open-Vocabulary Remote Sensing Image (OVRSIS)は、OVS(Open-Vocabulary)をリモートセンシング(RS)ドメインに適応させる新しいタスクである。
textbfRSKT-Segは、リモートセンシングに適した新しいオープン語彙セグメンテーションフレームワークである。
RSKT-Segは高いOVSベースラインを+3.8 mIoUと+5.9 mACCで上回り、効率的なアグリゲーションによって2倍高速な推論を実現している。
論文 参考訳(メタデータ) (2025-09-15T15:24:49Z) - ProSAM: Enhancing the Robustness of SAM-based Visual Reference Segmentation with Probabilistic Prompts [15.582637232358177]
ProSAMは、既存のSAMベースのビジュアル参照セグメンテーションアプローチにおいて、我々が特定した安定性の課題に対処する、シンプルだが効果的な方法である。
ProSAMは不安定な領域にあるプロンプトの生成を回避し、より堅牢でないプロンプトによって引き起こされる不安定さを克服する。
私たちのアプローチは、Pascal-5$i$とCOCO-20$i$データセットの最先端メソッドを一貫して超越しています。
論文 参考訳(メタデータ) (2025-06-27T00:50:15Z) - Promptable Anomaly Segmentation with SAM Through Self-Perception Tuning [63.55145330447408]
異常セグメンテーションのための textbfSelf-textbfPerceptinon textbfTuning (textbfSPT) 法を提案する。
SPT法は, 自己描画型チューニング戦略を取り入れ, 異常マスクの初期粗いドラフトを生成し, 精製処理を行う。
論文 参考訳(メタデータ) (2024-11-26T08:33:25Z) - One Shot is Enough for Sequential Infrared Small Target Segmentation [9.354927663020586]
赤外線小ターゲットシーケンスはフレーム間に強い類似性を示し、リッチなコンテキスト情報を含む。
本稿では,SAMのゼロショット一般化能力を逐次IRSTSに完全に適応させるワンショット・トレーニングフリーな手法を提案する。
実験の結果,現状のIRSTS法に匹敵する性能を達成するためには,本手法では1ショットしか必要としないことがわかった。
論文 参考訳(メタデータ) (2024-08-09T02:36:56Z) - SafaRi:Adaptive Sequence Transformer for Weakly Supervised Referring Expression Segmentation [11.243400478302771]
Referring Expression Consistency (RES) は、テキストによって参照される画像において、対象オブジェクトのセグメンテーションマスクを提供することを目的としている。
アルゴリズムの革新を取り入れたRESのための弱教師付きブートストラップアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-07-02T16:02:25Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - RSPrompter: Learning to Prompt for Remote Sensing Instance Segmentation
based on Visual Foundation Model [29.42043345787285]
本稿では,Segment Anything Model (SAM) のための適切なプロンプトの生成を学習する手法を提案する。
これによりSAMはリモートセンシング画像に対して意味的に識別可能なセグメンテーション結果を生成することができる。
また,SAMコミュニティ内での最近の進歩を図り,その性能をRSPrompterと比較する。
論文 参考訳(メタデータ) (2023-06-28T14:51:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。