論文の概要: AquaFeat: A Features-Based Image Enhancement Model for Underwater Object Detection
- arxiv url: http://arxiv.org/abs/2508.12343v1
- Date: Sun, 17 Aug 2025 12:22:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.69427
- Title: AquaFeat: A Features-Based Image Enhancement Model for Underwater Object Detection
- Title(参考訳): AquaFeat:水中物体検出のための特徴量に基づく画像強調モデル
- Authors: Emanuel C. Silva, Tatiana T. Schein, Stephanie L. Brião, Guilherme L. M. Costa, Felipe G. Oliveira, Gustavo P. Almeida, Eduardo L. Silva, Sam S. Devincenzi, Karina S. Machado, Paulo L. J. Drews-Jr,
- Abstract要約: 本稿では,タスク駆動機能拡張を行う新しいプラグイン・アンド・プレイモジュールであるAquaFeatを提案する。
提案手法は,マルチスケール機能強化ネットワークを訓練したエンドツーエンドと検出器の損失関数を統合する。
挑戦的な水中データセット上でYOLOv8mと統合されたAquaFeatは、最先端の精度(0.877)とリコール(0.624)を達成し、競争力のあるmAPスコア(0.677のmAP@0.5、mAP@[0.5:0.95]の0.421)を達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The severe image degradation in underwater environments impairs object detection models, as traditional image enhancement methods are often not optimized for such downstream tasks. To address this, we propose AquaFeat, a novel, plug-and-play module that performs task-driven feature enhancement. Our approach integrates a multi-scale feature enhancement network trained end-to-end with the detector's loss function, ensuring the enhancement process is explicitly guided to refine features most relevant to the detection task. When integrated with YOLOv8m on challenging underwater datasets, AquaFeat achieves state-of-the-art Precision (0.877) and Recall (0.624), along with competitive mAP scores (mAP@0.5 of 0.677 and mAP@[0.5:0.95] of 0.421). By delivering these accuracy gains while maintaining a practical processing speed of 46.5 FPS, our model provides an effective and computationally efficient solution for real-world applications, such as marine ecosystem monitoring and infrastructure inspection.
- Abstract(参考訳): 水中環境における画像劣化は、従来の画像強調法が下流のタスクに最適化されないことが多いため、物体検出モデルを損なう。
そこで本研究では,タスク駆動機能拡張を行う新しいプラグイン・アンド・プレイモジュールであるAquaFeatを提案する。
提案手法は,マルチスケール機能強化ネットワークと検出器の損失関数を統合し,検出タスクに最も関係のある機能を改良するために,拡張処理を明示的にガイドする。
挑戦的な水中データセット上でYOLOv8mと統合されると、AquaFeatは最先端の精度(0.877)とリコール(0.624)を達成し、競合するmAPスコア(0.677のmAP@0.5と0.421のmAP@[0.5:0.95])を達成している。
実際の処理速度を46.5 FPSに維持しながら,これらの精度向上を実現することにより,海洋生態系モニタリングやインフラ検査などの実世界のアプリケーションに対して,効率的かつ効率的なソリューションを提供する。
関連論文リスト
- Improve Underwater Object Detection through YOLOv12 Architecture and Physics-informed Augmentation [0.20767168898581637]
水中物体検出は、自律航法、環境モニタリング、海洋探査に不可欠である。
現在の手法は精度と計算効率のバランスをとるが、低視認性条件下でのリアルタイムのデプロイには困難がある。
本研究は, YOLOv12アーキテクチャと物理インフォームド・オービメンテーション技術の統合による水中検出を推し進めるものである。
論文 参考訳(メタデータ) (2025-06-30T04:06:50Z) - Learning Underwater Active Perception in Simulation [51.205673783866146]
タービディティは、検査された構造物の正確な視覚的記録を阻止する可能性があるため、ミッション全体を危険に晒す可能性がある。
従来の研究は、濁度や後方散乱に適応する手法を導入してきた。
本研究では, 広範囲の水環境下での高品質な画像取得を実現するための, 単純かつ効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-23T06:48:38Z) - You Sense Only Once Beneath: Ultra-Light Real-Time Underwater Object Detection [2.5249064981269296]
超軽量リアルタイム水中物体検出フレームワークYSOOB(You Sense Only Beneath)を提案する。
具体的には、マルチスペクトルウェーブレット(MSWE)を用いて入力画像の周波数領域符号化を行い、水中光色歪みによる意味損失を最小限に抑える。
また、単純で効果的なチャネル圧縮によりモデル冗長性を排除し、モデル軽量化のために大カーネル畳み込み(RLKC)を再構築する。
論文 参考訳(メタデータ) (2025-04-22T08:26:35Z) - Riverbed litter monitoring using consumer-grade aerial-aquatic speedy scanner (AASS) and deep learning based super-resolution reconstruction and detection network [19.943809531496388]
本研究では,Aerial-Aquatic Speedy Scanner (AASS) とSuper-Resolution Reconstruction (SRR) と改良されたYOLOv8検出ネットワークを紹介する。
AASSは従来の手法よりもデータ取得効率を高め、水中の廃棄物を正確に識別する高品質な画像をキャプチャする。
SRRは、動きのぼやけと解像度の不十分さを軽減し、画像分解能を向上させる。
論文 参考訳(メタデータ) (2024-08-07T05:56:05Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - An Efficient Detection and Control System for Underwater Docking using
Machine Learning and Realistic Simulation: A Comprehensive Approach [5.039813366558306]
この研究は、水中ドッキングの検出と分類を行うために異なるディープラーニングアーキテクチャと比較する。
GAN(Generative Adversarial Network)は画像から画像への変換に用いられ、ガゼボのシミュレーション画像を水中画像に変換する。
その結果,水中の潮流によらず,高濁度シナリオでは20%の改善が見られた。
論文 参考訳(メタデータ) (2023-11-02T18:10:20Z) - Learning from History: Task-agnostic Model Contrastive Learning for
Image Restoration [79.04007257606862]
本稿では,対象モデル自体から負のサンプルを動的に生成する「歴史からの学習」という革新的な手法を提案する。
我々のアプローチはMCLIR(Model Contrastive Learning for Image Restoration)と呼ばれ、遅延モデルを負のモデルとして再定義し、多様な画像復元タスクと互換性を持たせる。
論文 参考訳(メタデータ) (2023-09-12T07:50:54Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - The Surprising Effectiveness of Visual Odometry Techniques for Embodied
PointGoal Navigation [100.08270721713149]
PointGoalナビゲーションは、シミュレーションされたEmbodied AI環境で導入された。
最近の進歩は、ほぼ完璧な精度でPointGoalナビゲーションタスクを解く(99.6%の成功)
本研究では,ナビゲーションポリシにビジュアルオドメトリ技術を統合することで,人気の高いHabitat PointNavベンチマークの最先端性を大きなマージンで向上することを示す。
論文 参考訳(メタデータ) (2021-08-26T02:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。