論文の概要: BG-YOLO: A Bidirectional-Guided Method for Underwater Object Detection
- arxiv url: http://arxiv.org/abs/2404.08979v1
- Date: Sat, 13 Apr 2024 12:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 17:43:54.798268
- Title: BG-YOLO: A Bidirectional-Guided Method for Underwater Object Detection
- Title(参考訳): BG-YOLO:水中物体検出のための双方向誘導法
- Authors: Jian Zhang, Ruiteng Zhang, Xinyue Yan, Xiting Zhuang, Ruicheng Cao,
- Abstract要約: 既存の水中画像強調法は主に視覚面における指標の改善に焦点を当てている。
本稿では,BG-YOLOと呼ばれる水中物体検出のための双方向誘導手法を提案する。
提案手法は, 高度に劣化した水中のシーンにおいて, 検出器の性能が著しく向上したことを示す。
- 参考スコア(独自算出の注目度): 3.950042287413335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Degraded underwater images decrease the accuracy of underwater object detection. However, existing methods for underwater image enhancement mainly focus on improving the indicators in visual aspects, which may not benefit the tasks of underwater image detection, and may lead to serious degradation in performance. To alleviate this problem, we proposed a bidirectional-guided method for underwater object detection, referred to as BG-YOLO. In the proposed method, network is organized by constructing an enhancement branch and a detection branch in a parallel way. The enhancement branch consists of a cascade of an image enhancement subnet and an object detection subnet. And the detection branch only consists of a detection subnet. A feature guided module connects the shallow convolution layer of the two branches. When training the enhancement branch, the object detection subnet in the enhancement branch guides the image enhancement subnet to be optimized towards the direction that is most conducive to the detection task. The shallow feature map of the trained enhancement branch will be output to the feature guided module, constraining the optimization of detection branch through consistency loss and prompting detection branch to learn more detailed information of the objects. And hence the detection performance will be refined. During the detection tasks, only detection branch will be reserved so that no additional cost of computation will be introduced. Extensive experiments demonstrate that the proposed method shows significant improvement in performance of the detector in severely degraded underwater scenes while maintaining a remarkable detection speed.
- Abstract(参考訳): 劣化した水中画像は水中物体検出の精度を低下させる。
しかし、既存の水中画像強調法は主に視覚面の指標の改善に重点を置いており、水中画像検出の作業には効果がなく、性能が著しく低下する可能性がある。
この問題を軽減するため,BG-YOLOと呼ばれる水中物体検出のための双方向誘導法を提案した。
提案手法では,拡張ブランチと検出ブランチを並列に構築することでネットワークを編成する。
エンハンスメントブランチは、画像エンハンスメントサブネットのカスケードと、オブジェクト検出サブネットとから構成される。
そして、検出ブランチは、検出サブネットのみから構成される。
フィーチャーガイドモジュールは、2つのブランチの浅い畳み込み層を接続する。
エンハンスメントブランチのトレーニング時に、エンハンスメントブランチのオブジェクト検出サブネットは、検出タスクに最も適した方向に向けて最適化されるエンハンスメントサブネットをガイドする。
トレーニングされた拡張ブランチの浅い特徴マップはフィーチャーガイドモジュールに出力され、一貫性の喪失によって検出ブランチの最適化が制限され、検出ブランチはオブジェクトのより詳細な情報を学ぶように促される。
したがって、検出性能は改善される。
検出タスクの間は、追加の計算コストがかからないように、検出ブランチのみが予約される。
大規模な実験により, 本手法は, 顕著な検出速度を維持しつつ, 高度に劣化した水中のシーンにおける検出器の性能を著しく向上させることを示した。
関連論文リスト
- D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - FriendNet: Detection-Friendly Dehazing Network [24.372610892854283]
本稿では,イメージデハジングとオブジェクト検出を,ガイダンス情報とタスク駆動学習によってブリッジする効果的なアーキテクチャを提案する。
FriendNetは、高品質な認識と高い検出能力の両方を提供することを目指している。
論文 参考訳(メタデータ) (2024-03-07T12:19:04Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Joint Perceptual Learning for Enhancement and Object Detection in
Underwater Scenarios [41.34564703212461]
水中物体検出と画像強調を共同で学習する二段階最適化法を提案する。
本手法は,視覚的に有利な画像と高い検出精度を出力する。
論文 参考訳(メタデータ) (2023-07-07T11:54:06Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - A high-precision underwater object detection based on joint
self-supervised deblurring and improved spatial transformer network [0.0]
本稿では,共振器を用いた高精度水中物体検出(UOD)について述べる。
実験の結果,URPC 2017では47.9 mAP, URPC 2018では70.3 mAPを達成した。
論文 参考訳(メタデータ) (2022-03-09T15:54:00Z) - A Generative Approach for Detection-driven Underwater Image Enhancement [19.957923413999673]
本稿では,GAN(Generative Adversarial Network)に基づく画像強調とダイバー検出タスクを統合したモデルを提案する。
提案手法はGAN目的関数を再構成し,事前に訓練されたダイバーディテクタの情報を含む。
我々は,最先端のダイバー検出器を用いて,スキューバダイバーの大規模データセット上でネットワークをトレーニングし,海洋探査から収集した画像上でその有用性を示す。
論文 参考訳(メタデータ) (2020-12-10T21:33:12Z) - D-Unet: A Dual-encoder U-Net for Image Splicing Forgery Detection and
Localization [108.8592577019391]
画像スプライシング偽造検出は、画像指紋によって改ざんされた領域と非改ざんされた領域を区別するグローバルバイナリ分類タスクである。
画像スプライシングフォージェリ検出のためのデュアルエンコーダU-Net(D-Unet)という,固定されていないエンコーダと固定エンコーダを用いた新しいネットワークを提案する。
D-Unetと最先端技術の比較実験において、D-Unetは画像レベルおよび画素レベルの検出において他の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-03T10:54:02Z) - Dense Attention Fluid Network for Salient Object Detection in Optical
Remote Sensing Images [193.77450545067967]
光リモートセンシング画像(RSI)における有意物体検出のためのエンド・ツー・エンドDense Attention Fluid Network(DAFNet)を提案する。
GCA(Global Context-Aware Attention)モジュールは、長距離の意味的関係を適応的にキャプチャするために提案される。
我々は、2000枚の画像とピクセルワイドなサリエンシアノテーションを含むSODのための新しい、挑戦的な光学RSIデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-26T06:14:10Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。