論文の概要: Compositional Oil Spill Detection Based on Object Detector and Adapted
Segment Anything Model from SAR Images
- arxiv url: http://arxiv.org/abs/2401.07502v1
- Date: Mon, 15 Jan 2024 07:03:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:00:14.563361
- Title: Compositional Oil Spill Detection Based on Object Detector and Adapted
Segment Anything Model from SAR Images
- Title(参考訳): SAR画像からのオブジェクト検出器と適応セグメントモデルに基づく組成油流出検出
- Authors: Wenhui Wu, Man Sing Wong, Xinyu Yu, Guoqiang Shi, Coco Yin Tung Kwok,
Kang Zou
- Abstract要約: 本稿では,オブジェクト検出器(例:YOLOv8),適応セグメント・アニーシング・モデル(SAM),命令マスク・フュージョン(OMF)モジュールからなる複合油流出検出フレームワークSAM-OILを提案する。
SAM-OILは,石油流出検出における強力なSAMの最初の応用である。特に,SAM-OIL戦略では,YOLOv8を用いて油流出関連物のカテゴリとバウンディングボックスを取得し,適応SAMにバウンディングボックスを入力し,カテゴリ非依存マスクを検索し,最後に秩序マスク融合(OMF)モジュールを用いてマスクとカテゴリを融合させる。
- 参考スコア(独自算出の注目度): 3.4801004964984545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic segmentation-based methods have attracted extensive attention in oil
spill detection from SAR images. However, the existing approaches require a
large number of finely annotated segmentation samples in the training stage. To
alleviate this issue, we propose a composite oil spill detection framework,
SAM-OIL, comprising an object detector (e.g., YOLOv8), an adapted Segment
Anything Model (SAM), and an Ordered Mask Fusion (OMF) module. SAM-OIL is the
first application of the powerful SAM in oil spill detection. Specifically, the
SAM-OIL strategy uses YOLOv8 to obtain the categories and bounding boxes of oil
spill-related objects, then inputs bounding boxes into the adapted SAM to
retrieve category-agnostic masks, and finally adopts the Ordered Mask Fusion
(OMF) module to fuse the masks and categories. The adapted SAM, combining a
frozen SAM with a learnable Adapter module, can enhance SAM's ability to
segment ambiguous objects. The OMF module, a parameter-free method, can
effectively resolve pixel category conflicts within SAM. Experimental results
demonstrate that SAM-OIL surpasses existing semantic segmentation-based oil
spill detection methods, achieving mIoU of 69.52%. The results also indicated
that both OMF and Adapter modules can effectively improve the accuracy in
SAM-OIL.
- Abstract(参考訳): セマンティックセグメンテーションに基づく手法は,SAR画像からの油流出検出に広く注目されている。
しかし、既存のアプローチでは、トレーニング段階で多数の細かい注釈付きセグメンテーションサンプルが必要である。
この問題を軽減するために,オブジェクト検出器(例:YOLOv8),適応セグメント・アニーシング・モデル(SAM),命令マスク・フュージョン(OMF)モジュールからなる複合油流出検知フレームワークSAM-OILを提案する。
SAM-OILは石油流出検知における強力なSAMの最初の応用である。
具体的には、SAM-OIL 戦略は YOLOv8 を用いて、石油流出関連物のカテゴリとバウンディングボックスを取得し、その後、適応されたSAM にバウンディングボックスを入力してカテゴリ非依存マスクを検索し、最後に、マスクとカテゴリを融合させるために Ordered Mask Fusion (OMF) モジュールを採用する。
適応されたSAMは、凍ったSAMと学習可能なAdapterモジュールを組み合わせることで、SAMの曖昧なオブジェクトを分割する能力を高めることができる。
パラメータフリーなOMFモジュールはSAM内の画素カテゴリ競合を効果的に解決することができる。
実験の結果、SAM-OILは既存のセマンティックセグメンテーションに基づくオイル流出検出法を超え、69.52%のmIoUを達成した。
また,OMFモジュールとAdapterモジュールはSAM-OILの精度を効果的に向上できることを示した。
関連論文リスト
- MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Fantastic Animals and Where to Find Them: Segment Any Marine Animal with Dual SAM [62.85895749882285]
海洋動物(英: Marine Animal、MAS)は、海洋環境に生息する動物を分類する動物である。
高性能MASのための新しい特徴学習フレームワークDual-SAMを提案する。
提案手法は,広く使用されている5つのMASデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-07T15:34:40Z) - PosSAM: Panoptic Open-vocabulary Segment Anything [58.72494640363136]
PosSAMはオープン・ボキャブラリ・パノプティ・セグメンテーション・モデルであり、Segment Anything Model(SAM)の強みを、エンドツーエンドのフレームワークで視覚ネイティブのCLIPモデルと統合する。
本稿では,マスクの質を適応的に向上し,各画像の推論中にオープン語彙分類の性能を高めるマスク対応選択組立アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-14T17:55:03Z) - WSI-SAM: Multi-resolution Segment Anything Model (SAM) for histopathology whole-slide images [8.179859593451285]
病理画像の正確なオブジェクト分割機能を備えたWSI-SAM, Segment Anything Model (SAM) を提案する。
トレーニングオーバーヘッドを最小限にしながら、トレーニング済みの知識を完全に活用するために、SAMは凍結し、最小限のパラメータしか導入しません。
本モデルでは, 膵管癌 in situ (DCIS) セグメンテーションタスクと乳癌転移セグメンテーションタスクにおいて, SAMを4.1, 2.5パーセント上回った。
論文 参考訳(メタデータ) (2024-03-14T10:30:43Z) - VRP-SAM: SAM with Visual Reference Prompt [73.05676082695459]
そこで我々は,Segment Anything Model (SAM) を利用した新しいVisual Reference Prompt (VRP) エンコーダを提案する。
本質的には、VRP-SAMは注釈付き参照画像を使用して特定のオブジェクトを理解し、ターゲット画像内の特定のオブジェクトのセグメンテーションを実行することができる。
論文 参考訳(メタデータ) (2024-02-27T17:58:09Z) - PA-SAM: Prompt Adapter SAM for High-Quality Image Segmentation [19.65118388712439]
本稿では,新しいプロンプト駆動型アダプタであるPrompt Adapter Segment Anything Model(PA-SAM)を紹介する。
PA-SAMはプロンプトアダプタを専用にトレーニングすることで、画像から詳細な情報を抽出し、スパースレベルとディーププロンプトレベルの両方でマスクデコーダ機能を最適化する。
実験の結果,PA-SAMは他のSAM法よりも高品質,ゼロショット,オープンセットのセグメンテーションで優れていた。
論文 参考訳(メタデータ) (2024-01-23T19:20:22Z) - Boosting Segment Anything Model Towards Open-Vocabulary Learning [69.42565443181017]
Segment Anything Model (SAM)は、新しいパラダイムビジョン基盤モデルとして登場した。
SAMは様々な領域で応用や適応を発見できるが、その主な制限はオブジェクトの意味を把握できないことである。
我々は,SAMとオープン語彙オブジェクト検出器をエンドツーエンドフレームワークでシームレスに統合するSamborを提案する。
論文 参考訳(メタデータ) (2023-12-06T17:19:00Z) - SAM-Deblur: Let Segment Anything Boost Image Deblurring [21.964258084389243]
本稿では,Segment Anything Model (SAM) からの事前知識をデブロア処理に組み込んだ SAM-Deblur フレームワークを提案する。
RealBlurJ、ReloBlur、REDSデータセットの実験結果から、GoProでトレーニングしたNAFNetのPSNRをそれぞれ0.05、0.96、および7.03に改善したことが明らかとなった。
論文 参考訳(メタデータ) (2023-09-05T14:33:56Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - SAM Fails to Segment Anything? -- SAM-Adapter: Adapting SAM in
Underperformed Scenes: Camouflage, Shadow, Medical Image Segmentation, and
More [13.047310918166762]
ドメイン固有の情報や視覚的プロンプトを,単純で効果的なアダプタを用いてセグメント化ネットワークに組み込んだtextbfSAM-Adapterを提案する。
タスク固有のネットワークモデルよりも優れていて、テストしたタスクで最先端のパフォーマンスを実現できます。
論文 参考訳(メタデータ) (2023-04-18T17:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。