論文の概要: A Gated Cross-domain Collaborative Network for Underwater Object
Detection
- arxiv url: http://arxiv.org/abs/2306.14141v1
- Date: Sun, 25 Jun 2023 06:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 16:31:59.939404
- Title: A Gated Cross-domain Collaborative Network for Underwater Object
Detection
- Title(参考訳): 水中物体検出のための拡張型クロスドメイン協調ネットワーク
- Authors: Linhui Dai, Hong Liu, Pinhao Song, Mengyuan Liu
- Abstract要約: 水中物体検出は養殖と海洋環境保護において重要な役割を担っている。
水中画像の品質向上のため,水中画像強調法(UIE)が提案されている。
本稿では,水中環境における可視性とコントラストの低さの課題に対処するため,GCC-Net(Gated Cross-domain Collaborative Network)を提案する。
- 参考スコア(独自算出の注目度): 14.715181402435066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater object detection (UOD) plays a significant role in aquaculture and
marine environmental protection. Considering the challenges posed by low
contrast and low-light conditions in underwater environments, several
underwater image enhancement (UIE) methods have been proposed to improve the
quality of underwater images. However, only using the enhanced images does not
improve the performance of UOD, since it may unavoidably remove or alter
critical patterns and details of underwater objects. In contrast, we believe
that exploring the complementary information from the two domains is beneficial
for UOD. The raw image preserves the natural characteristics of the scene and
texture information of the objects, while the enhanced image improves the
visibility of underwater objects. Based on this perspective, we propose a Gated
Cross-domain Collaborative Network (GCC-Net) to address the challenges of poor
visibility and low contrast in underwater environments, which comprises three
dedicated components. Firstly, a real-time UIE method is employed to generate
enhanced images, which can improve the visibility of objects in low-contrast
areas. Secondly, a cross-domain feature interaction module is introduced to
facilitate the interaction and mine complementary information between raw and
enhanced image features. Thirdly, to prevent the contamination of unreliable
generated results, a gated feature fusion module is proposed to adaptively
control the fusion ratio of cross-domain information. Our method presents a new
UOD paradigm from the perspective of cross-domain information interaction and
fusion. Experimental results demonstrate that the proposed GCC-Net achieves
state-of-the-art performance on four underwater datasets.
- Abstract(参考訳): 水中物体検出(UOD)は養殖と海洋環境保護において重要な役割を果たしている。
水中環境における低コントラストおよび低光環境による課題を踏まえ,水中画像の品質向上を目的とした水中画像強調(UIE)手法が提案されている。
しかし、UODは必然的に重要なパターンや水中物体の細部を除去・変更する可能性があるため、改良された画像のみを使用することで性能は向上しない。
対照的に、2つのドメインから補完的な情報を探索することは、UODにとって有益であると考えている。
原画像はシーンの自然的特徴と物体のテクスチャ情報を保存し、強化された画像は水中物体の視認性を向上させる。
この観点から,3つの専用コンポーネントからなる水中環境における低視認性と低コントラストの課題に対処するため,GCC-Net(Gated Cross-domain Collaborative Network)を提案する。
まず,低コントラスト領域におけるオブジェクトの視認性を向上させるため,拡張画像の生成にリアルタイムのuie法を適用した。
第2に,raw と enhanced image の機能間のインタラクションと補完情報をマイニングするためのクロスドメイン機能インタラクションモジュールが導入された。
第3に,信頼できない結果の汚染を防止するため,クロスドメイン情報の融合比を適応的に制御するゲート型特徴融合モジュールを提案する。
本手法は,ドメイン間の情報相互作用と融合の観点から,新しい UOD パラダイムを提案する。
実験の結果,提案したGCC-Netは4つの水中データセット上で最先端の性能を達成できた。
関連論文リスト
- Separated Attention: An Improved Cycle GAN Based Under Water Image Enhancement Method [0.0]
我々は、損失関数を改良した最先端のサイクルGANモデルのサイクル一貫した学習手法を利用した。
我々は、ベンチマークしたEnhancing Underwater Visual Perceptionデータセット上で、修正された損失関数を用いてCycle GANモデルを訓練した。
アップグレードされた画像は、従来のモデルによるより良い結果を提供し、さらに水中ナビゲーション、ポーズ推定、サリエンシ予測、物体の検出と追跡を行う。
論文 参考訳(メタデータ) (2024-04-11T11:12:06Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Toward Sufficient Spatial-Frequency Interaction for Gradient-aware
Underwater Image Enhancement [5.553172974022233]
本研究では,空間周波数相互作用と勾配図に基づく新しい水中画像強調(UIE)フレームワークを開発する。
2つの実世界の水中画像データセットによる実験結果から,本手法が水中画像の強化に有効であることが確認された。
論文 参考訳(メタデータ) (2023-09-08T02:58:17Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - Domain Adaptation for Underwater Image Enhancement via Content and Style
Separation [7.077978580799124]
水中画像は、カラーキャスト、低コントラスト、光吸収、屈折、散乱によるハジー効果に悩まされている。
近年の学習に基づく手法は水中画像の強調に驚くべき性能を示した。
本稿では,コンテンツとスタイル分離による水中画像強調のためのドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-17T09:30:29Z) - Domain Adaptation for Underwater Image Enhancement [51.71570701102219]
本稿では,ドメイン間およびドメイン内ギャップを最小限に抑えるために,新しい2相水中ドメイン適応ネットワーク(TUDA)を提案する。
第1段階では、入力画像のリアリズムを強化する翻訳部と、拡張部とを含む新しい二重配向ネットワークを設計する。
第2フェーズでは、ランクベースの水中品質評価手法が組み込まれている強化画像の評価品質に応じて、実データを簡単に分類する。
論文 参考訳(メタデータ) (2021-08-22T06:38:19Z) - Domain Adaptive Adversarial Learning Based on Physics Model Feedback for
Underwater Image Enhancement [10.143025577499039]
物理モデルに基づくフィードバック制御と,水中画像の高機能化のための領域適応機構を用いた,新しい頑健な対角学習フレームワークを提案する。
水中画像形成モデルを用いてRGB-Dデータから水中訓練データセットをシミュレーションする新しい手法を提案する。
合成および実水中画像の最終的な改良結果は,提案手法の優位性を示している。
論文 参考訳(メタデータ) (2020-02-20T07:50:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。