論文の概要: HFP-SAM: Hierarchical Frequency Prompted SAM for Efficient Marine Animal Segmentation
- arxiv url: http://arxiv.org/abs/2603.12708v1
- Date: Fri, 13 Mar 2026 06:43:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.948301
- Title: HFP-SAM: Hierarchical Frequency Prompted SAM for Efficient Marine Animal Segmentation
- Title(参考訳): HFP-SAM:高効率海洋動物分節化のための階層周波数法によるSAM
- Authors: Pingping Zhang, Tianyu Yan, Yuhao Wang, Yang Liu, Tongdan Tang, Yili Ma, Long Lv, Feng Tian, Weibing Sun, and Huchuan Lu,
- Abstract要約: 本研究では,高性能海洋動物分節のための新しい学習フレームワークHFP-SAMを提案する。
まず、凍結したSAMバックボーンに海洋シーン情報を効率よく注入する周波数誘導アダプタ(FGA)を設計する。
また、周波数分析により強調領域を生成するために、周波数対応ポイント選択(FPS)を導入する。
- 参考スコア(独自算出の注目度): 61.044699537570644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Marine Animal Segmentation (MAS) aims at identifying and segmenting marine animals from complex marine environments. Most of previous deep learning-based MAS methods struggle with the long-distance modeling issue. Recently, Segment Anything Model (SAM) has gained popularity in general image segmentation. However, it lacks of perceiving fine-grained details and frequency information. To this end, we propose a novel learning framework, named Hierarchical Frequency Prompted SAM (HFP-SAM) for high-performance MAS. First, we design a Frequency Guided Adapter (FGA) to efficiently inject marine scene information into the frozen SAM backbone through frequency domain prior masks. Additionally, we introduce a Frequency-aware Point Selection (FPS) to generate highlighted regions through frequency analysis. These regions are combined with the coarse predictions of SAM to generate point prompts and integrate into SAM's decoder for fine predictions. Finally, to obtain comprehensive segmentation masks, we introduce a Full-View Mamba (FVM) to efficiently extract spatial and channel contextual information with linear computational complexity. Extensive experiments on four public datasets demonstrate the superior performance of our approach. The source code is publicly available at https://github.com/Drchip61/TIP-HFP-SAM.
- Abstract(参考訳): マリン・アニマル・セグメンテーション (MAS) は、複雑な海洋環境から海洋動物を識別し、分類することを目的としている。
従来のディープラーニングに基づくMAS手法のほとんどは、長距離モデリングの問題に対処している。
近年,画像分割においてSAM (Seegment Anything Model) が普及している。
しかし、細かな詳細や周波数情報を知覚する能力は欠如している。
そこで本研究では,HFP-SAM(Hierarchical Frequency Prompted SAM)という,高性能MASのための新しい学習フレームワークを提案する。
まず,FGA ( Frequency Guided Adapter) を設計し,凍結したSAMバックボーンに,周波数領域の先行マスクを介して海洋シーン情報を効率的に注入する。
さらに、周波数分析により強調領域を生成するために、周波数対応ポイント選択(FPS)を導入する。
これらの領域はSAMの粗い予測と組み合わせてポイントプロンプトを生成し、SAMのデコーダに統合して詳細な予測を行う。
最後に、包括的セグメンテーションマスクを得るために、線形計算複雑性で空間的・チャネル的情報を効率的に抽出するフルビュー・マンバ(FVM)を導入する。
4つの公開データセットに対する大規模な実験は、我々のアプローチの優れた性能を示している。
ソースコードはhttps://github.com/Drchip61/TIP-HFP-SAMで公開されている。
関連論文リスト
- Evaluating SAM2 for Video Semantic Segmentation [60.157605818225186]
Anything Model 2 (SAM2)は、画像とビデオの両方において、迅速な視覚オブジェクトのセグメンテーションのための強力な基盤モデルであることが証明されている。
本稿では, SAM2 から高密度ビデオセマンティック (VSS) への拡張について検討する。
我々の実験は、SAM2を利用することでVSSの全体的な性能が向上することを示唆している。
論文 参考訳(メタデータ) (2025-12-01T15:15:16Z) - SAMRefiner: Taming Segment Anything Model for Universal Mask Refinement [40.37217744643069]
マスク改善タスクにSAMを適用することで,汎用的で効率的なアプローチを提案する。
具体的には,SAMの多様な入力プロンプトをマイニングするためのマルチプロンプト掘削手法を提案する。
ターゲットデータセット上のジェネリックSAMRefinerのパフォーマンスをさらに向上するため、IoU適応ステップを追加してSAMRefiner++にメソッドを拡張します。
論文 参考訳(メタデータ) (2025-02-10T18:33:15Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Fantastic Animals and Where to Find Them: Segment Any Marine Animal with Dual SAM [62.85895749882285]
海洋動物(英: Marine Animal、MAS)は、海洋環境に生息する動物を分類する動物である。
高性能MASのための新しい特徴学習フレームワークDual-SAMを提案する。
提案手法は,広く使用されている5つのMASデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-07T15:34:40Z) - DeSAM: Decoupled Segment Anything Model for Generalizable Medical Image Segmentation [22.974876391669685]
Segment Anything Model (SAM) は、医用画像セグメンテーションのクロスドメインロバスト性を改善する可能性を示している。
SAMは手動でトリガーする時よりも、自動セグメンテーションのシナリオで大幅にパフォーマンスが低下する。
Decoupled SAMはSAMのマスクデコーダを2つの新しいモジュールを導入して変更する。
論文 参考訳(メタデータ) (2023-06-01T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。