論文の概要: Compositional Oil Spill Detection Based on Object Detector and Adapted
Segment Anything Model from SAR Images
- arxiv url: http://arxiv.org/abs/2401.07502v1
- Date: Mon, 15 Jan 2024 07:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:00:14.563361
- Title: Compositional Oil Spill Detection Based on Object Detector and Adapted
Segment Anything Model from SAR Images
- Title(参考訳): SAR画像からのオブジェクト検出器と適応セグメントモデルに基づく組成油流出検出
- Authors: Wenhui Wu, Man Sing Wong, Xinyu Yu, Guoqiang Shi, Coco Yin Tung Kwok,
Kang Zou
- Abstract要約: 本稿では,オブジェクト検出器(例:YOLOv8),適応セグメント・アニーシング・モデル(SAM),命令マスク・フュージョン(OMF)モジュールからなる複合油流出検出フレームワークSAM-OILを提案する。
SAM-OILは,石油流出検出における強力なSAMの最初の応用である。特に,SAM-OIL戦略では,YOLOv8を用いて油流出関連物のカテゴリとバウンディングボックスを取得し,適応SAMにバウンディングボックスを入力し,カテゴリ非依存マスクを検索し,最後に秩序マスク融合(OMF)モジュールを用いてマスクとカテゴリを融合させる。
- 参考スコア(独自算出の注目度): 3.4801004964984545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation-based methods have attracted extensive attention in oil
spill detection from SAR images. However, the existing approaches require a
large number of finely annotated segmentation samples in the training stage. To
alleviate this issue, we propose a composite oil spill detection framework,
SAM-OIL, comprising an object detector (e.g., YOLOv8), an adapted Segment
Anything Model (SAM), and an Ordered Mask Fusion (OMF) module. SAM-OIL is the
first application of the powerful SAM in oil spill detection. Specifically, the
SAM-OIL strategy uses YOLOv8 to obtain the categories and bounding boxes of oil
spill-related objects, then inputs bounding boxes into the adapted SAM to
retrieve category-agnostic masks, and finally adopts the Ordered Mask Fusion
(OMF) module to fuse the masks and categories. The adapted SAM, combining a
frozen SAM with a learnable Adapter module, can enhance SAM's ability to
segment ambiguous objects. The OMF module, a parameter-free method, can
effectively resolve pixel category conflicts within SAM. Experimental results
demonstrate that SAM-OIL surpasses existing semantic segmentation-based oil
spill detection methods, achieving mIoU of 69.52%. The results also indicated
that both OMF and Adapter modules can effectively improve the accuracy in
SAM-OIL.
- Abstract(参考訳): セマンティックセグメンテーションに基づく手法は,SAR画像からの油流出検出に広く注目されている。
しかし、既存のアプローチでは、トレーニング段階で多数の細かい注釈付きセグメンテーションサンプルが必要である。
この問題を軽減するために,オブジェクト検出器(例:YOLOv8),適応セグメント・アニーシング・モデル(SAM),命令マスク・フュージョン(OMF)モジュールからなる複合油流出検知フレームワークSAM-OILを提案する。
SAM-OILは石油流出検知における強力なSAMの最初の応用である。
具体的には、SAM-OIL 戦略は YOLOv8 を用いて、石油流出関連物のカテゴリとバウンディングボックスを取得し、その後、適応されたSAM にバウンディングボックスを入力してカテゴリ非依存マスクを検索し、最後に、マスクとカテゴリを融合させるために Ordered Mask Fusion (OMF) モジュールを採用する。
適応されたSAMは、凍ったSAMと学習可能なAdapterモジュールを組み合わせることで、SAMの曖昧なオブジェクトを分割する能力を高めることができる。
パラメータフリーなOMFモジュールはSAM内の画素カテゴリ競合を効果的に解決することができる。
実験の結果、SAM-OILは既存のセマンティックセグメンテーションに基づくオイル流出検出法を超え、69.52%のmIoUを達成した。
また,OMFモジュールとAdapterモジュールはSAM-OILの精度を効果的に向上できることを示した。
関連論文リスト
- Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Tuning a SAM-Based Model with Multi-Cognitive Visual Adapter to Remote Sensing Instance Segmentation [4.6570959687411975]
Segment Anything Model (SAM) は例外的な一般化能力を示す。
SAMは大規模なリモートセンシング画像の事前トレーニングを欠いているため、インタラクティブな構造は自動マスク予測能力を制限している。
マルチ認知SAMベースインスタンスモデル (MC-SAM SEG) を導入し, リモートセンシング領域にSAMを採用する。
MC-SAM SEG と呼ばれる提案手法は,SAM-Mona エンコーダの微調整と特徴アグリゲータによって高品質な特徴を抽出する。
論文 参考訳(メタデータ) (2024-08-16T07:23:22Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Fantastic Animals and Where to Find Them: Segment Any Marine Animal with Dual SAM [62.85895749882285]
海洋動物(英: Marine Animal、MAS)は、海洋環境に生息する動物を分類する動物である。
高性能MASのための新しい特徴学習フレームワークDual-SAMを提案する。
提案手法は,広く使用されている5つのMASデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-07T15:34:40Z) - PosSAM: Panoptic Open-vocabulary Segment Anything [58.72494640363136]
PosSAMはオープン・ボキャブラリ・パノプティ・セグメンテーション・モデルであり、Segment Anything Model(SAM)の強みを、エンドツーエンドのフレームワークで視覚ネイティブのCLIPモデルと統合する。
本稿では,マスクの質を適応的に向上し,各画像の推論中にオープン語彙分類の性能を高めるマスク対応選択組立アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-14T17:55:03Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - VRP-SAM: SAM with Visual Reference Prompt [73.05676082695459]
そこで我々は,Segment Anything Model (SAM) を利用した新しいVisual Reference Prompt (VRP) エンコーダを提案する。
本質的には、VRP-SAMは注釈付き参照画像を使用して特定のオブジェクトを理解し、ターゲット画像内の特定のオブジェクトのセグメンテーションを実行することができる。
論文 参考訳(メタデータ) (2024-02-27T17:58:09Z) - PA-SAM: Prompt Adapter SAM for High-Quality Image Segmentation [19.65118388712439]
本稿では,新しいプロンプト駆動型アダプタであるPrompt Adapter Segment Anything Model(PA-SAM)を紹介する。
PA-SAMはプロンプトアダプタを専用にトレーニングすることで、画像から詳細な情報を抽出し、スパースレベルとディーププロンプトレベルの両方でマスクデコーダ機能を最適化する。
実験の結果,PA-SAMは他のSAM法よりも高品質,ゼロショット,オープンセットのセグメンテーションで優れていた。
論文 参考訳(メタデータ) (2024-01-23T19:20:22Z) - DeSAM: Decoupled Segment Anything Model for Generalizable Medical Image Segmentation [22.974876391669685]
Segment Anything Model (SAM) は、医用画像セグメンテーションのクロスドメインロバスト性を改善する可能性を示している。
SAMは手動でトリガーする時よりも、自動セグメンテーションのシナリオで大幅にパフォーマンスが低下する。
Decoupled SAMはSAMのマスクデコーダを2つの新しいモジュールを導入して変更する。
論文 参考訳(メタデータ) (2023-06-01T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。