論文の概要: OilSAM2: Memory-Augmented SAM2 for Scalable SAR Oil Spill Detection
- arxiv url: http://arxiv.org/abs/2603.10231v1
- Date: Tue, 10 Mar 2026 21:06:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.693234
- Title: OilSAM2: Memory-Augmented SAM2 for Scalable SAR Oil Spill Detection
- Title(参考訳): OilSAM2: スケーラブルなSARオイルスパイル検出のためのメモリ拡張SAM2
- Authors: Shuaiyu Chen, Ming Yin, Peng Ren, Chunbo Luo, Zeyu Fu,
- Abstract要約: OilSAM2は、SARオイル流出監視用に設計されたメモリ拡張セグメンテーションフレームワークである。
OilSAM2は階層的な特徴を意識したマルチスケールメモリバンクを導入し、テクスチャ、構造、セマンティックレベルの表現を明示的にモデル化している。
2つの公開SARオイル流出データセットの実験により、PululSAM2がアートセグメンテーション性能の状態を達成していることが示された。
- 参考スコア(独自算出の注目度): 19.589079902423983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Segmenting oil spills from Synthetic Aperture Radar (SAR) imagery remains challenging due to severe appearance variability, scale heterogeneity, and the absence of temporal continuity in real world monitoring scenarios. While foundation models such as Segment Anything (SAM) enable prompt driven segmentation, existing SAM based approaches operate on single images and cannot effectively reuse information across scenes. Memory augmented variants (e.g., SAM2) further assume temporal coherence, making them prone to semantic drift when applied to unordered SAR image collections. We propose OilSAM2, a memory augmented segmentation framework tailored for unordered SAR oil spill monitoring. OilSAM2 introduces a hierarchical feature aware multi scale memory bank that explicitly models texture, structure, and semantic level representations, enabling robust cross image information reuse. To mitigate memory drift, we further propose a structure semantic consistent memory update strategy that selectively refreshes memory based on semantic discrepancy and structural variation.Experiments on two public SAR oil spill datasets demonstrate that OilSAM2 achieves state of the art segmentation performance, delivering stable and accurate results under noisy SAR monitoring scenarios. The source code is available at https://github.com/Chenshuaiyu1120/OILSAM2.
- Abstract(参考訳): SAR (Synthetic Aperture Radar) 画像からのオイル流出の分離は, 視認性, スケールの不均一性, 実世界の監視シナリオにおける時間的連続性の欠如により, 依然として困難である。
Segment Anything (SAM) のような基盤モデルは、プロンプト駆動のセグメンテーションを可能にするが、既存のSAMベースのアプローチは単一のイメージで動作しており、シーン間で情報を効果的に再利用することはできない。
メモリ拡張型(例えばSAM2)はさらに時間的コヒーレンスを前提としており、順序のないSARイメージコレクションに適用した場合、セマンティックドリフトが難しくなる。
非秩序なSARオイル流出モニタリングに適したメモリ拡張セグメンテーションフレームワークであるPulilSAM2を提案する。
OilSAM2は階層的なマルチスケールメモリバンクを導入し、テクスチャ、構造、セマンティックレベルの表現を明示的にモデル化し、堅牢なクロスイメージ情報の再利用を可能にする。
さらに、メモリドリフトを緩和するために、意味的不一致と構造的変動に基づいてメモリを選択的にリフレッシュする構造的セマンティックなメモリ更新戦略を提案する。2つの公開SARオイル流出データセットの実験により、PululSAM2が最先端セグメンテーション性能を達成し、ノイズの多いSAR監視シナリオ下で安定かつ正確な結果を提供することを示す。
ソースコードはhttps://github.com/Chenshuaiyu1120/OILSAM2で公開されている。
関連論文リスト
- Evaluating SAM2 for Video Semantic Segmentation [60.157605818225186]
Anything Model 2 (SAM2)は、画像とビデオの両方において、迅速な視覚オブジェクトのセグメンテーションのための強力な基盤モデルであることが証明されている。
本稿では, SAM2 から高密度ビデオセマンティック (VSS) への拡張について検討する。
我々の実験は、SAM2を利用することでVSSの全体的な性能が向上することを示唆している。
論文 参考訳(メタデータ) (2025-12-01T15:15:16Z) - O2Former:Direction-Aware and Multi-Scale Query Enhancement for SAR Ship Instance Segmentation [0.3611754783778107]
合成開口レーダ(SAR)画像における船舶の船体セグメンテーションは、海上監視、環境分析、国家安全保障などの用途において重要である。
SAR船体画像は、スケール変動、物体密度、ファジィターゲット境界などの課題を示す。
我々は,SAR画像の構造的特徴を十分に活用して,Mask2Formerを拡張したカスタマイズされたインスタンスセグメンテーションフレームワークであるO2Formerを提案する。
論文 参考訳(メタデータ) (2025-06-13T16:06:51Z) - MemorySAM: Memorize Modalities and Semantics with Segment Anything Model 2 for Multi-modal Semantic Segmentation [22.482211353379927]
大型ビジョンモデルであるAnythingCube Model 2 (SAM2)は、画像とビデオの両方でゼロショットセグメンテーション性能が強い。
ビデオにおけるクロスフレーム相関に着想を得て,同一シーンを表すフレームの列としてマルチモーダルデータを扱うことを提案する。
私たちのキーとなるアイデアは、モダリティに依存しない情報を「記憶」し、ターゲットのシーンに関連する意味を「記憶」することです。
論文 参考訳(メタデータ) (2025-03-09T17:33:15Z) - PolSAM: Polarimetric Scattering Mechanism Informed Segment Anything Model [83.35198885088093]
PolSARデータは、そのリッチで複雑な特徴のために、ユニークな課題を提示する。
複素数値データ、偏光特性、振幅画像などの既存のデータ表現が広く使われている。
PolSARのほとんどの機能抽出ネットワークは小さく、機能を効果的にキャプチャする能力を制限している。
本稿では,ドメイン固有の散乱特性と新規なプロンプト生成戦略を統合したSegment Anything Model (SAM) であるPolarimetric Scattering Mechanism-Informed SAM (PolSAM)を提案する。
論文 参考訳(メタデータ) (2024-12-17T09:59:53Z) - VRP-SAM: SAM with Visual Reference Prompt [76.71829864364283]
SAM(Segment Anything Model)を利用した新しいVisual Reference Prompt(VRP)エンコーダを提案する。
VRP-SAMは、アノテーション付き参照イメージを使用して、特定のオブジェクトを理解し、ターゲット画像内の特定のオブジェクトのセグメンテーションを実行する。
VRP-SAMの一般化能力を高めるために、VRPエンコーダはメタラーニング戦略を採用する。
論文 参考訳(メタデータ) (2024-02-27T17:58:09Z) - ClassWise-SAM-Adapter: Parameter Efficient Fine-tuning Adapts Segment
Anything to SAR Domain for Semantic Segmentation [6.229326337093342]
Segment Anything Model (SAM) は意味情報と一般化能力に依存する様々なセグメンテーションシナリオを抽出する。
The ClassWiseSAM-Adapter (CWSAM) is designed to adapt the high-performing SAM for landcover classification on Spaceborne Synthetic Aperture Radar (SAR) images。
CWSAMは、少ないコンピューティングリソースでパフォーマンスを向上する。
論文 参考訳(メタデータ) (2024-01-04T15:54:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。