論文の概要: Empowering DINO Representations for Underwater Instance Segmentation via Aligner and Prompter
- arxiv url: http://arxiv.org/abs/2511.08334v1
- Date: Wed, 12 Nov 2025 01:53:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.765197
- Title: Empowering DINO Representations for Underwater Instance Segmentation via Aligner and Prompter
- Title(参考訳): アリグナーとプロンプターによる水中インスタンスセグメンテーションのためのDINO表現の強化
- Authors: Zhiyang Chen, Chen Zhang, Hao Fang, Runmin Cong,
- Abstract要約: 水中インスタンスセグメンテーション(UIS)は海洋資源探査と生態保護において重要な技術である。
2つの洞察に富んだコンポーネントの上に構築された新しいフレームワークであるDiveSegを紹介します。
DiveSegは、人気のあるUIISとUSIS10Kデータセットの最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 32.30901888033798
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater instance segmentation (UIS), integrating pixel-level understanding and instance-level discrimination, is a pivotal technology in marine resource exploration and ecological protection. In recent years, large-scale pretrained visual foundation models, exemplified by DINO, have advanced rapidly and demonstrated remarkable performance on complex downstream tasks. In this paper, we demonstrate that DINO can serve as an effective feature learner for UIS, and we introduce DiveSeg, a novel framework built upon two insightful components: (1) The AquaStyle Aligner, designed to embed underwater color style features into the DINO fine-tuning process, facilitating better adaptation to the underwater domain. (2) The ObjectPrior Prompter, which incorporates binary segmentation-based prompts to deliver object-level priors, provides essential guidance for instance segmentation task that requires both object- and instance-level reasoning. We conduct thorough experiments on the popular UIIS and USIS10K datasets, and the results show that DiveSeg achieves the state-of-the-art performance. Code: https://github.com/ettof/Diveseg.
- Abstract(参考訳): 水中のインスタンスセグメンテーション(UIS)は、ピクセルレベルの理解とインスタンスレベルの識別を統合し、海洋資源探査と生態保護において重要な技術である。
近年、DINOによる大規模な事前学習型視覚基盤モデルが急速に進歩し、複雑な下流タスクにおいて顕著な性能を示した。
本稿では,DINOがUISの効果的な機能学習者として機能できることを実証し,DiveSegという2つの洞察に富んだコンポーネント上に構築された新しいフレームワークを紹介した。
2) ObjectPrior Prompterは、バイナリセグメンテーションベースのプロンプトを組み込んでオブジェクトレベルのプリミティブを提供するもので、オブジェクトレベルの推論とインスタンスレベルの推論の両方を必要とするインスタンスセグメンテーションタスクに不可欠なガイダンスを提供します。
一般的なUIISとUSIS10Kデータセットに関する徹底的な実験を行い、DiveSegが最先端のパフォーマンスを達成することを示す。
コード:https://github.com/ettof/Diveseg.com
関連論文リスト
- Exploring the Underwater World Segmentation without Extra Training [55.291219073365546]
我々は,最初の大規模かつ微細な水中セグメンテーションデータセットである textbfAquaOV255 を紹介する。
トレーニング不要なOVセグメンテーションフレームワークである textbfEarth2Ocean も紹介する。
論文 参考訳(メタデータ) (2025-11-11T07:22:56Z) - Advancing Marine Research: UWSAM Framework and UIIS10K Dataset for Precise Underwater Instance Segmentation [110.02397462607449]
大規模な水中インスタンスセグメンテーションデータセットであるUIIS10Kを提案する。
次に,水中インスタンスの自動・高精度セグメンテーションのための効率的なモデルであるUWSAMを紹介する。
複数の水中インスタンスデータセット上での最先端手法よりも優れた性能向上を実現し,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2025-05-21T14:36:01Z) - FSSUWNet: Mitigating the Fragility of Pre-trained Models with Feature Enhancement for Few-Shot Semantic Segmentation in Underwater Images [4.981558556611925]
Few-Shot Semantic (FSS)は、最近データスカースドメインで進歩している。
既存のFSS法は水中環境への一般化に苦慮することが多い。
機能強化を伴う水中画像のためのFSSフレームワークFSSUWNetを提案する。
論文 参考訳(メタデータ) (2025-04-01T07:09:15Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - A Real-Time Framework for Domain-Adaptive Underwater Object Detection with Image Enhancement [18.936260846385444]
EnyoLOは、水中画像強調(UIE)と物体検出(UOD)を同時に行うために設計された統合リアルタイムフレームワークである。
このフレームワークはUIEタスクとUDDタスクの両方でSOTA(State-of-the-art)性能を実現するが、異なる水中シナリオに適用した場合にも優れた適応性を示す。
論文 参考訳(メタデータ) (2024-03-28T01:00:08Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。