論文の概要: Downstream Task Inspired Underwater Image Enhancement: A Perception-Aware Study from Dataset Construction to Network Design
- arxiv url: http://arxiv.org/abs/2603.01767v1
- Date: Mon, 02 Mar 2026 11:50:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.849577
- Title: Downstream Task Inspired Underwater Image Enhancement: A Perception-Aware Study from Dataset Construction to Network Design
- Title(参考訳): 下流タスクにインスパイアされた水中画像の強調:データセット構築からネットワーク設計への認識-
- Authors: Bosen Lin, Feng Gao, Yanwei Yu, Junyu Dong, Qian Du,
- Abstract要約: そこで本研究では,水中視覚タスクに有効な画像強調を行うために,下流タスクインスパイアされた水中画像強調(DTI-UIE)フレームワークを提案する。
具体的には,機能混合のためのタスク認識型アテンションモジュールを備えた効率的な2分岐ネットワークを設計する。
DTI-UIEは、下流タスクに有用な前処理画像を生成することにより、タスク性能を著しく向上することを示す。
- 参考スコア(独自算出の注目度): 53.9340120911759
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In real underwater environments, downstream image recognition tasks such as semantic segmentation and object detection often face challenges posed by problems like blurring and color inconsistencies. Underwater image enhancement (UIE) has emerged as a promising preprocessing approach, aiming to improve the recognizability of targets in underwater images. However, most existing UIE methods mainly focus on enhancing images for human visual perception, frequently failing to reconstruct high-frequency details that are critical for task-specific recognition. To address this issue, we propose a Downstream Task-Inspired Underwater Image Enhancement (DTI-UIE) framework, which leverages human visual perception model to enhance images effectively for underwater vision tasks. Specifically, we design an efficient two-branch network with task-aware attention module for feature mixing. The network benefits from a multi-stage training framework and a task-driven perceptual loss. Additionally, inspired by human perception, we automatically construct a Task-Inspired UIE Dataset (TI-UIED) using various task-specific networks. Experimental results demonstrate that DTI-UIE significantly improves task performance by generating preprocessed images that are beneficial for downstream tasks such as semantic segmentation, object detection, and instance segmentation. The codes are publicly available at https://github.com/oucailab/DTIUIE.
- Abstract(参考訳): 実際の水中環境では、セマンティックセグメンテーションやオブジェクト検出などの下流画像認識タスクは、ぼやけや色の不整合といった問題によって引き起こされる課題に直面していることが多い。
水中画像強調(UIE)は,水中画像における目標認識性の向上を目的とした,有望な事前処理手法として登場した。
しかし、既存のUIE手法のほとんどは、人間の視覚知覚のための画像の強化に重点を置いており、タスク固有の認識に不可欠な高周波の詳細を再構成することができないことが多い。
この問題に対処するために,人間の視覚認識モデルを利用して水中視覚タスクに効果的に画像を強化する,下流タスクインスパイアされた水中画像強調(DTI-UIE)フレームワークを提案する。
具体的には,機能混合のためのタスク認識型アテンションモジュールを備えた効率的な2分岐ネットワークを設計する。
このネットワークは、マルチステージのトレーニングフレームワークとタスク駆動の知覚損失の恩恵を受ける。
さらに、人間の知覚にインスパイアされ、様々なタスク固有ネットワークを用いてタスクインスパイアされたUIEデータセット(TI-UIED)を自動構築する。
実験の結果、DTI-UIEは、セマンティックセグメンテーション、オブジェクト検出、インスタンスセグメンテーションといった下流タスクに有用な前処理された画像を生成することにより、タスク性能を著しく向上することが示された。
コードはhttps://github.com/oucailab/DTIUIE.comで公開されている。
関連論文リスト
- VisualCloze: A Universal Image Generation Framework via Visual In-Context Learning [68.98988753763666]
ユニバーサル画像生成フレームワークであるVisualClozeを提案する。
VisualClozeは、幅広いドメイン内タスク、見えないタスクへの一般化、複数のタスクの見えない統一、リバースジェネレーションをサポートする。
グラフ構造化データセットであるGraph200Kを導入し,タスク密度と伝達可能な知識を向上する。
論文 参考訳(メタデータ) (2025-04-10T17:59:42Z) - HUPE: Heuristic Underwater Perceptual Enhancement with Semantic Collaborative Learning [62.264673293638175]
既存の水中画像強調法は主に視覚的品質の向上に重点を置いており、実際的な意味を見落としている。
視覚的品質を高め,他の下流タスクに対処する柔軟性を示す,水中知覚向上のための可逆的ネットワークHを提案する。
論文 参考訳(メタデータ) (2024-11-27T12:37:03Z) - FriendNet: Detection-Friendly Dehazing Network [24.372610892854283]
本稿では,イメージデハジングとオブジェクト検出を,ガイダンス情報とタスク駆動学習によってブリッジする効果的なアーキテクチャを提案する。
FriendNetは、高品質な認識と高い検出能力の両方を提供することを目指している。
論文 参考訳(メタデータ) (2024-03-07T12:19:04Z) - Video Task Decathlon: Unifying Image and Video Tasks in Autonomous
Driving [85.62076860189116]
Video Task Decathlon (VTD)には、分類、セグメンテーション、ローカライゼーション、オブジェクトとピクセルの関連にまたがる10の代表的な画像とビデオタスクが含まれている。
我々は、単一の構造と10タスクすべてに一組の重みを持つ統合ネットワークVTDNetを開発した。
論文 参考訳(メタデータ) (2023-09-08T16:33:27Z) - Joint Perceptual Learning for Enhancement and Object Detection in
Underwater Scenarios [41.34564703212461]
水中物体検出と画像強調を共同で学習する二段階最適化法を提案する。
本手法は,視覚的に有利な画像と高い検出精度を出力する。
論文 参考訳(メタデータ) (2023-07-07T11:54:06Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - A Benchmark dataset for both underwater image enhancement and underwater
object detection [34.25890702670983]
境界ボックスアノテーションと高品質な参照画像の両方を用いた大規模水中物体検出データセットを提供する。
OUCデータセットは、水中物体検出タスクにおける水中画像強調アルゴリズムの影響を包括的に研究するためのプラットフォームを提供する。
論文 参考訳(メタデータ) (2020-06-29T03:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。