論文の概要: AquaSAM: Underwater Image Foreground Segmentation
- arxiv url: http://arxiv.org/abs/2308.04218v1
- Date: Tue, 8 Aug 2023 12:30:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 12:54:39.832608
- Title: AquaSAM: Underwater Image Foreground Segmentation
- Title(参考訳): AquaSAM:水中画像フォアグラウンドセグメンテーション
- Authors: Muduo Xu, Jianhao Su, Yutao Liu
- Abstract要約: この研究は、水中画像上でSAMの成功を拡大する最初の試みであるAquaSAMを提示する。
我々は、SAMを一般的な前景水中画像セグメンテーションに適応させる簡単な微調整法を開発した。
我々はAquaSAMがサンゴ礁のようなハードタスクにおいてデフォルトのSAMモデルより優れていることを実証する。
- 参考スコア(独自算出の注目度): 1.7482936568887284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Segment Anything Model (SAM) has revolutionized natural image
segmentation, nevertheless, its performance on underwater images is still
restricted. This work presents AquaSAM, the first attempt to extend the success
of SAM on underwater images with the purpose of creating a versatile method for
the segmentation of various underwater targets. To achieve this, we begin by
classifying and extracting various labels automatically in SUIM dataset.
Subsequently, we develop a straightforward fine-tuning method to adapt SAM to
general foreground underwater image segmentation. Through extensive experiments
involving eight segmentation tasks like human divers, we demonstrate that
AquaSAM outperforms the default SAM model especially at hard tasks like coral
reefs. AquaSAM achieves an average Dice Similarity Coefficient (DSC) of 7.13
(%) improvement and an average of 8.27 (%) on mIoU improvement in underwater
segmentation tasks.
- Abstract(参考訳): SAM(Segment Anything Model)は自然画像のセグメンテーションに革命をもたらしたが、それでも水中画像のパフォーマンスは制限されている。
この研究は、様々な水中ターゲットのセグメンテーションのための汎用的な方法を作成することを目的として、水中画像上でSAMの成功を拡大する最初の試みであるAquaSAMを提示する。
これを実現するために、SUIMデータセットで様々なラベルを自動的に分類し抽出することから始める。
次に,サムを海中イメージセグメンテーションに適応させるための簡易な微調整法を開発した。
人間のダイバーのような8つのセグメンテーションタスクを含む広範な実験を通して、AquaSAMは特にサンゴ礁のような硬いタスクにおいて、デフォルトのSAMモデルよりも優れていることを示した。
AquaSAMは、水中セグメンテーションにおける平均Dice similarity Coefficient(DSC)が7.13(%)改善され、mIoUの改善が平均8.27(%)改善された。
関連論文リスト
- Evaluation of Segment Anything Model 2: The Role of SAM2 in the Underwater Environment [2.0554501265326794]
Segment Anything Model(SAM)とその拡張は、海洋科学における様々な水中可視化タスクに応用するために試みられている。
近年,Segment Anything Model 2 (SAM2) が開発され,実行速度とセグメンテーション精度が大幅に向上した。
本報告は, 海洋科学におけるSAM2の可能性について, UIIS と USIS10K をベンチマークした水中インスタンスセグメンテーションデータセットを用いて検討することを目的とする。
論文 参考訳(メタデータ) (2024-08-06T03:20:10Z) - RobustSAM: Segment Anything Robustly on Degraded Images [19.767828436963317]
Segment Anything Model (SAM) は画像セグメンテーションにおける変換的アプローチとして登場した。
低画質画像におけるSAMの性能を向上させるRobust Segment Anything Model (RobustSAM)を提案する。
提案手法は, SAMに基づくダウンストリームタスクにおいて, 単一画像のデハージングやデブロアリングなどの性能を効果的に向上することを目的としている。
論文 参考訳(メタデータ) (2024-06-13T23:33:59Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Moving Object Segmentation: All You Need Is SAM (and Flow) [82.78026782967959]
SAMのセグメンテーション能力と移動物体の発見・グループ化能力を利用する光フローとSAMを組み合わせた2つのモデルについて検討する。
第1のモデルでは、RGBではなく光の流れを入力としてSAMに適応させ、第2のモデルではRGBを入力として、フローをセグメント化プロンプトとして使用する。
これらの驚くほど単純な方法は、追加の修正なしに、シングルオブジェクトとマルチオブジェクトのベンチマークにおいて、以前のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2024-04-18T17:59:53Z) - Fantastic Animals and Where to Find Them: Segment Any Marine Animal with Dual SAM [62.85895749882285]
海洋動物(英: Marine Animal、MAS)は、海洋環境に生息する動物を分類する動物である。
高性能MASのための新しい特徴学習フレームワークDual-SAMを提案する。
提案手法は,広く使用されている5つのMASデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-07T15:34:40Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - When SAM Meets Sonar Images [6.902760999492406]
Segment Anything Model (SAM)はセグメンテーションのやり方に革命をもたらした。
SAMのパフォーマンスは、自然画像とは異なる領域を含むタスクに適用されると低下する可能性がある。
SAMは微調整技術を用いて、医学や惑星科学のような特定の領域で有望な能力を示す。
論文 参考訳(メタデータ) (2023-06-25T03:15:14Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。