論文の概要: Improving underwater semantic segmentation with underwater image quality attention and muti-scale aggregation attention
- arxiv url: http://arxiv.org/abs/2503.23422v1
- Date: Sun, 30 Mar 2025 12:47:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.112311
- Title: Improving underwater semantic segmentation with underwater image quality attention and muti-scale aggregation attention
- Title(参考訳): 水中画像品質アテンションとミューティスケールアグリゲーションアテンションによる水中セマンティックセグメンテーションの改善
- Authors: Xin Zuo, Jiaran Jiang, Jifeng Shen, Wankou Yang,
- Abstract要約: UnderWater SegFormer (UWSegFormer) は、低品質水中画像のセマンティックセグメンテーションのためのトランスフォーマーベースのフレームワークである。
提案手法は,SOTA法と比較した場合,分割完全性,境界明細度,主観的知覚的詳細性の点で有利である。
- 参考スコア(独自算出の注目度): 13.73105543582749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Underwater image understanding is crucial for both submarine navigation and seabed exploration. However, the low illumination in underwater environments degrades the imaging quality, which in turn seriously deteriorates the performance of underwater semantic segmentation, particularly for outlining the object region boundaries. To tackle this issue, we present UnderWater SegFormer (UWSegFormer), a transformer-based framework for semantic segmentation of low-quality underwater images. Firstly, we propose the Underwater Image Quality Attention (UIQA) module. This module enhances the representation of highquality semantic information in underwater image feature channels through a channel self-attention mechanism. In order to address the issue of loss of imaging details due to the underwater environment, the Multi-scale Aggregation Attention(MAA) module is proposed. This module aggregates sets of semantic features at different scales by extracting discriminative information from high-level features,thus compensating for the semantic loss of detail in underwater objects. Finally, during training, we introduce Edge Learning Loss (ELL) in order to enhance the model's learning of underwater object edges and improve the model's prediction accuracy. Experiments conducted on the SUIM and DUT-USEG (DUT) datasets have demonstrated that the proposed method has advantages in terms of segmentation completeness, boundary clarity, and subjective perceptual details when compared to SOTA methods. In addition, the proposed method achieves the highest mIoU of 82.12 and 71.41 on the SUIM and DUT datasets, respectively. Code will be available at https://github.com/SAWRJJ/UWSegFormer.
- Abstract(参考訳): 海底画像の理解は、潜水艦の航行と海底探査の両方に不可欠である。
しかし、水中環境における低照度は画像品質を劣化させ、特に対象領域の境界線をアウトラインする水中セマンティックセグメンテーションの性能を著しく劣化させる。
この問題に対処するため,低品質水中画像のセマンティックセグメンテーションのためのトランスフォーマーベースのフレームワークであるUnderWater SegFormer(UWSegFormer)を提案する。
まず,水中画像品質注意(UIQA)モジュールを提案する。
このモジュールは、チャンネル自己認識機構を介して、水中画像特徴チャネルにおける高品質な意味情報の表現を強化する。
水中環境による画像詳細の喪失に対処するため,マルチスケールアグリゲーション・アテンション(MAA)モジュールを提案する。
このモジュールは、水中の物体における細部の意味的損失を補償する高レベルの特徴から識別情報を抽出することにより、異なるスケールで意味的特徴のセットを集約する。
最後に,モデルが水中の物体のエッジを学習し,予測精度を向上させるために,エッジ学習損失(ELL)を導入する。
SuIMおよびDUT-USEG(DUT)データセットを用いて行った実験により,SOTA法と比較した場合の分割完全性,境界明確性,主観的知覚的詳細性の観点から,提案手法の利点が示された。
提案手法は,SUIMデータセットとDUTデータセットにおいて,それぞれ82.12mIoUと71.41mIoUの最高値を達成した。
コードはhttps://github.com/SAWRJJ/UWSegFormer.comから入手できる。
関連論文リスト
- Knowledge Distillation for Underwater Feature Extraction and Matching via GAN-synthesized Images [40.403791826344275]
本稿では,濁った水中環境における特徴抽出とマッチングの堅牢性を向上させることを目的としている。
まず,水パラメータと水中雑音分布を推定する適応的なGAN合成法を提案する。
次に、異なる教師モデルと互換性のある一般知識蒸留フレームワークを導入する。
論文 参考訳(メタデータ) (2025-04-11T04:34:18Z) - FSSUWNet: Mitigating the Fragility of Pre-trained Models with Feature Enhancement for Few-Shot Semantic Segmentation in Underwater Images [4.19512807949895]
Few-Shot Semantic (FSS)は、最近データスカースドメインで進歩している。
既存のFSS法は水中環境への一般化に苦慮することが多い。
機能強化を伴う水中画像のためのFSSフレームワークFSSUWNetを提案する。
論文 参考訳(メタデータ) (2025-04-01T07:09:15Z) - A Unified Image-Dense Annotation Generation Model for Underwater Scenes [48.34534171882895]
本稿では,水中のシーンに対して,テキスト・ツー・イメージ・デンスアノテーションを統一的に生成する手法を提案する。
テキストのみを入力とし、リアルな水中画像と高度に一貫性のある複数のアノテーションを同時に生成する。
TIDEを用いて大規模な水中データセットを合成し,水中密集予測における手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-03-27T17:59:43Z) - WaterMono: Teacher-Guided Anomaly Masking and Enhancement Boosting for Robust Underwater Self-Supervised Monocular Depth Estimation [4.909989222186828]
深度推定と画像強調のための新しいフレームワークであるWaterMonoを提案する。
1)教師が指導する異常マスクを用いて画像内の動的領域を識別し,(2)水中画像形成モデルと組み合わせた深度情報を用いて深度推定タスクに寄与する拡張画像を生成し,(3)回転蒸留手法を用いてモデルの回転ロバスト性を高める。
論文 参考訳(メタデータ) (2024-06-19T08:49:45Z) - Diving into Underwater: Segment Anything Model Guided Underwater Salient Instance Segmentation and A Large-scale Dataset [60.14089302022989]
水中視覚タスクは複雑な水中状況のため、しばしばセグメンテーションの精度が低い。
第1次大規模水中塩分分節データセット(USIS10K)を構築した。
本研究では,水中ドメインに特化してセグメンツ・ア・シング・モデル(USIS-SAM)に基づく水中塩分・インスタンス・アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-10T06:17:33Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Synergistic Multiscale Detail Refinement via Intrinsic Supervision for
Underwater Image Enhancement [39.208417033777415]
マルチステージを含む水中シーンの細部を高度化するための内在監視(SMDR-IS)を提案する。
ASISFモジュールは、多段劣化段階における特徴伝達を正確に制御し、ガイドすることができる。
Bifocal Intrinsic-Context Attention Module (BICA) は画像中のマルチスケールシーン情報を効率的に活用する。
論文 参考訳(メタデータ) (2023-08-23T05:40:55Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - DeepAqua: Self-Supervised Semantic Segmentation of Wetland Surface Water
Extent with SAR Images using Knowledge Distillation [44.99833362998488]
トレーニングフェーズ中に手動アノテーションを不要にする自己教師型ディープラーニングモデルであるDeepAquaを提案する。
我々は、光とレーダーをベースとしたウォーターマスクが一致する場合を利用して、水面と植物の両方を検知する。
実験の結果,DeepAquaの精度は7%向上し,Intersection Over Unionが27%,F1が14%向上した。
論文 参考訳(メタデータ) (2023-05-02T18:06:21Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - A Benchmark dataset for both underwater image enhancement and underwater
object detection [34.25890702670983]
境界ボックスアノテーションと高品質な参照画像の両方を用いた大規模水中物体検出データセットを提供する。
OUCデータセットは、水中物体検出タスクにおける水中画像強調アルゴリズムの影響を包括的に研究するためのプラットフォームを提供する。
論文 参考訳(メタデータ) (2020-06-29T03:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。