論文の概要: Joint Perceptual Learning for Enhancement and Object Detection in
Underwater Scenarios
- arxiv url: http://arxiv.org/abs/2307.03536v1
- Date: Fri, 7 Jul 2023 11:54:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 12:39:57.718990
- Title: Joint Perceptual Learning for Enhancement and Object Detection in
Underwater Scenarios
- Title(参考訳): 水中シナリオの強化と物体検出のための共同知覚学習
- Authors: Chenping Fu, Wanqi Yuan, Jiewen Xiao, Risheng Liu, and Xin Fan
- Abstract要約: 水中物体検出と画像強調を共同で学習する二段階最適化法を提案する。
本手法は,視覚的に有利な画像と高い検出精度を出力する。
- 参考スコア(独自算出の注目度): 41.34564703212461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater degraded images greatly challenge existing algorithms to detect
objects of interest. Recently, researchers attempt to adopt attention
mechanisms or composite connections for improving the feature representation of
detectors. However, this solution does \textit{not} eliminate the impact of
degradation on image content such as color and texture, achieving minimal
improvements. Another feasible solution for underwater object detection is to
develop sophisticated deep architectures in order to enhance image quality or
features. Nevertheless, the visually appealing output of these enhancement
modules do \textit{not} necessarily generate high accuracy for deep detectors.
More recently, some multi-task learning methods jointly learn underwater
detection and image enhancement, accessing promising improvements. Typically,
these methods invoke huge architecture and expensive computations, rendering
inefficient inference. Definitely, underwater object detection and image
enhancement are two interrelated tasks. Leveraging information coming from the
two tasks can benefit each task. Based on these factual opinions, we propose a
bilevel optimization formulation for jointly learning underwater object
detection and image enhancement, and then unroll to a dual perception network
(DPNet) for the two tasks. DPNet with one shared module and two task subnets
learns from the two different tasks, seeking a shared representation. The
shared representation provides more structural details for image enhancement
and rich content information for object detection. Finally, we derive a
cooperative training strategy to optimize parameters for DPNet. Extensive
experiments on real-world and synthetic underwater datasets demonstrate that
our method outputs visually favoring images and higher detection accuracy.
- Abstract(参考訳): 水中で劣化した画像は、既存のアルゴリズムに非常に挑戦し、興味のある物体を検出する。
近年,検出器の特徴表現を改善するため,注意機構や複合接続の採用が試みられている。
しかし、このソリューションは、色やテクスチャなどの画像コンテンツに対する劣化の影響をなくし、最小限の改善を達成している。
水中物体検出のもう一つの実現可能な解決策は、画質や機能を向上させるために高度な深層アーキテクチャを開発することである。
それでも、これらの拡張モジュールの視覚的に魅力的な出力は、ディープ検出器に対して高い精度で生成する。
最近のマルチタスク学習手法では、水中検出と画像強調を共同で学習し、有望な改善にアクセスしている。
通常、これらのメソッドは巨大なアーキテクチャと高価な計算を起動し、非効率な推論をレンダリングする。
明らかに、水中物体検出と画像強調は2つの相互関連タスクである。
2つのタスクから得られる情報を活用することは、各タスクに利益をもたらす。
これらの事実に基づいて,水中物体の検出と画像強調を共同で学習する二段階最適化法を提案し,その2つの課題に対して2次元認識ネットワーク(DPNet)に展開する。
1つの共有モジュールと2つのタスクサブネットを持つDPNetは、2つの異なるタスクから学習し、共有表現を求める。
共有表現は、画像強調のための構造の詳細とオブジェクト検出のためのリッチコンテンツ情報を提供する。
最後に,dpnetのパラメータを最適化するための協調学習戦略を導出する。
実世界および合成水中データセットに関する広範囲な実験により,視覚的に好適な画像と高い検出精度が得られた。
関連論文リスト
- FriendNet: Detection-Friendly Dehazing Network [24.372610892854283]
本稿では,イメージデハジングとオブジェクト検出を,ガイダンス情報とタスク駆動学習によってブリッジする効果的なアーキテクチャを提案する。
FriendNetは、高品質な認識と高い検出能力の両方を提供することを目指している。
論文 参考訳(メタデータ) (2024-03-07T12:19:04Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Semantic-aware Texture-Structure Feature Collaboration for Underwater
Image Enhancement [58.075720488942125]
水中画像の強調は海洋工学や水生ロボット工学において重要な技術として注目されている。
我々は,高レベルな意味認識事前学習モデルと協調して,効率的でコンパクトな拡張ネットワークを開発する。
また,提案手法を水中の有意な物体検出タスクに適用し,高レベルの視覚タスクに適した意味認識能力を明らかにする。
論文 参考訳(メタデータ) (2022-11-19T07:50:34Z) - TogetherNet: Bridging Image Restoration and Object Detection Together
via Dynamic Enhancement Learning [20.312198020027957]
ヘイズ、雨、雪などの逆の気象条件は、しばしば捕獲された画像の品質を損なう。
本稿では,画像復元とオブジェクト検出を橋渡しする,効果的で統一された検出パラダイムを提案する。
We show that our TogetherNet are outperforming the state-of-the-art detection approach by a large marginly and qualitatively。
論文 参考訳(メタデータ) (2022-09-03T09:06:13Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Exploring Low-light Object Detection Techniques [0.456877715768796]
物体検出タスクにどの画像強調アルゴリズムがより適しているかを考察する。
具体的には,基本ヒストグラム等化技術と画像翻訳技術について検討する。
我々は,すべての結果を比較し,平均精度(mAP)を計算し,今後の研究の方向性を示す。
論文 参考訳(メタデータ) (2021-07-30T01:11:11Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Perceptual underwater image enhancement with deep learning and physical
priors [35.37760003463292]
本稿では,2つの知覚強調モデルを提案する。
トレーニングデータの欠如により, 物理的先行とデータ駆動的手がかりを融合したハイブリッド水中画像合成モデルが提案され, トレーニングデータを合成する。
実験結果から,提案手法は実環境および合成水中データセット上でのいくつかの最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-08-21T22:11:34Z) - Underwater object detection using Invert Multi-Class Adaboost with deep
learning [37.14538666012363]
小型物体検出のための新しいニューラルネットワークアーキテクチャであるSample-WeIghted hyPEr Network(SWIPENet)を提案する。
提案するSWIPENet+IMAフレームワークは,複数の最先端オブジェクト検出手法に対して,検出精度の向上を実現する。
論文 参考訳(メタデータ) (2020-05-23T15:30:38Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。