論文の概要: LUIEO: A Lightweight Model for Integrating Underwater Image Enhancement and Object Detection
- arxiv url: http://arxiv.org/abs/2412.07009v1
- Date: Sun, 01 Dec 2024 14:01:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-15 08:00:19.572976
- Title: LUIEO: A Lightweight Model for Integrating Underwater Image Enhancement and Object Detection
- Title(参考訳): LUIEO:水中画像の強調と物体検出の統合のための軽量モデル
- Authors: Bin Li, Li Li, Zhenwei Zhang, Yuping Duan,
- Abstract要約: 本稿では,水中画像の強調と検出精度の向上を同時に行うマルチタスク学習手法を提案する。
統合モデルは、情報通信と異なるタスク間の共有を動的に調整することを可能にする。
数値実験により,提案モデルが視覚性能,物体検出精度,検出効率を満足できることを示す。
- 参考スコア(独自算出の注目度): 10.572090127928698
- License:
- Abstract: Underwater optical images inevitably suffer from various degradation factors such as blurring, low contrast, and color distortion, which hinder the accuracy of object detection tasks. Due to the lack of paired underwater/clean images, most research methods adopt a strategy of first enhancing and then detecting, resulting in a lack of feature communication between the two learning tasks. On the other hand, due to the contradiction between the diverse degradation factors of underwater images and the limited number of samples, existing underwater enhancement methods are difficult to effectively enhance degraded images of unknown water bodies, thereby limiting the improvement of object detection accuracy. Therefore, most underwater target detection results are still displayed on degraded images, making it difficult to visually judge the correctness of the detection results. To address the above issues, this paper proposes a multi-task learning method that simultaneously enhances underwater images and improves detection accuracy. Compared with single-task learning, the integrated model allows for the dynamic adjustment of information communication and sharing between different tasks. Due to the fact that real underwater images can only provide annotated object labels, this paper introduces physical constraints to ensure that object detection tasks do not interfere with image enhancement tasks. Therefore, this article introduces a physical module to decompose underwater images into clean images, background light, and transmission images and uses a physical model to calculate underwater images for self-supervision. Numerical experiments demonstrate that the proposed model achieves satisfactory results in visual performance, object detection accuracy, and detection efficiency compared to state-of-the-art comparative methods.
- Abstract(参考訳): 水中光学画像は、ぼかし、低コントラスト、色歪みなどの様々な劣化要因に必然的に悩まされ、物体検出の精度を損なう。
水中画像とクリーン画像のペアが欠如しているため、ほとんどの研究手法は最初は強化し、次に検出する戦略を採用しており、2つの学習課題の間には機能的なコミュニケーションが欠如している。
一方, 水中画像の多彩な劣化要因と限られたサンプル数との矛盾から, 既存の水中強調法は未知の水域の劣化画像を効果的に強化し, 物体検出精度の向上を抑えることが困難である。
したがって、ほとんどの水中目標検出結果は、まだ劣化した画像に表示されており、検出結果の正しさを視覚的に判断することは困難である。
そこで本研究では,水中画像の強調と検出精度の向上を同時に行うマルチタスク学習手法を提案する。
シングルタスク学習と比較して、統合モデルは情報通信の動的調整と異なるタスク間の共有を可能にする。
実際の水中画像はアノテートされたオブジェクトラベルしか提供できないため,物体検出タスクが画像強調タスクに干渉しないように,物理的制約を導入する。
そこで本稿では, 水中画像をクリーン画像, 背景光, 透過画像に分解する物理モジュールを導入し, 物理的モデルを用いて水中画像を自己監督的に計算する。
数値実験により, 提案手法は, 現状比較法と比較して, 視覚性能, 物体検出精度, 検出効率の良好な結果が得られることを示した。
関連論文リスト
- Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - Evaluating the Impact of Underwater Image Enhancement on Object Detection Performance: A Comprehensive Study [1.7933377464816112]
本研究の目的は、最先端の画像強調モデルの評価、水中物体検出への影響調査、検出性能向上の可能性を探ることである。
論文 参考訳(メタデータ) (2024-11-21T22:59:15Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - WaterFlow: Heuristic Normalizing Flow for Underwater Image Enhancement
and Beyond [52.27796682972484]
既存の水中画像強調法は, 画像品質の向上に重点を置いており, 実践への影響を無視している。
本稿では,検出駆動型水中画像強調のための正規化フローであるWaterFlowを提案する。
微分可能性や解釈可能性を考慮すると、事前をデータ駆動マッピング手法に組み込む。
論文 参考訳(メタデータ) (2023-08-02T04:17:35Z) - Joint Perceptual Learning for Enhancement and Object Detection in
Underwater Scenarios [41.34564703212461]
水中物体検出と画像強調を共同で学習する二段階最適化法を提案する。
本手法は,視覚的に有利な画像と高い検出精度を出力する。
論文 参考訳(メタデータ) (2023-07-07T11:54:06Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Perceptual underwater image enhancement with deep learning and physical
priors [35.37760003463292]
本稿では,2つの知覚強調モデルを提案する。
トレーニングデータの欠如により, 物理的先行とデータ駆動的手がかりを融合したハイブリッド水中画像合成モデルが提案され, トレーニングデータを合成する。
実験結果から,提案手法は実環境および合成水中データセット上でのいくつかの最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-08-21T22:11:34Z) - A Benchmark dataset for both underwater image enhancement and underwater
object detection [34.25890702670983]
境界ボックスアノテーションと高品質な参照画像の両方を用いた大規模水中物体検出データセットを提供する。
OUCデータセットは、水中物体検出タスクにおける水中画像強調アルゴリズムの影響を包括的に研究するためのプラットフォームを提供する。
論文 参考訳(メタデータ) (2020-06-29T03:12:50Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。