論文の概要: Learning Heavily-Degraded Prior for Underwater Object Detection
- arxiv url: http://arxiv.org/abs/2308.12738v1
- Date: Thu, 24 Aug 2023 12:32:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-25 14:04:20.116993
- Title: Learning Heavily-Degraded Prior for Underwater Object Detection
- Title(参考訳): 水中物体検出のための高度劣化前の学習
- Authors: Chenping Fu, Xin Fan, Jiewen Xiao, Wanqi Yuan, Risheng Liu, and
Zhongxuan Luo
- Abstract要約: 本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
- 参考スコア(独自算出の注目度): 59.5084433933765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater object detection suffers from low detection performance because
the distance and wavelength dependent imaging process yield evident image
quality degradations such as haze-like effects, low visibility, and color
distortions. Therefore, we commit to resolving the issue of underwater object
detection with compounded environmental degradations. Typical approaches
attempt to develop sophisticated deep architecture to generate high-quality
images or features. However, these methods are only work for limited ranges
because imaging factors are either unstable, too sensitive, or compounded.
Unlike these approaches catering for high-quality images or features, this
paper seeks transferable prior knowledge from detector-friendly images. The
prior guides detectors removing degradations that interfere with detection. It
is based on statistical observations that, the heavily degraded regions of
detector-friendly (DFUI) and underwater images have evident feature
distribution gaps while the lightly degraded regions of them overlap each
other. Therefore, we propose a residual feature transference module (RFTM) to
learn a mapping between deep representations of the heavily degraded patches of
DFUI- and underwater- images, and make the mapping as a heavily degraded prior
(HDP) for underwater detection. Since the statistical properties are
independent to image content, HDP can be learned without the supervision of
semantic labels and plugged into popular CNNbased feature extraction networks
to improve their performance on underwater object detection. Without bells and
whistles, evaluations on URPC2020 and UODD show that our methods outperform
CNN-based detectors by a large margin. Our method with higher speeds and less
parameters still performs better than transformer-based detectors. Our code and
DFUI dataset can be found in
https://github.com/xiaoDetection/Learning-Heavily-Degraed-Prior.
- Abstract(参考訳): 水中物体検出は、距離と波長に依存した撮像プロセスによって、ヘイズ様効果、低視認性、色歪みなどの画像品質の劣化が明らかになるため、検出性能が低下する。
そこで我々は, 複合環境劣化による水中物体検出の課題の解決にコミットする。
典型的なアプローチは、高品質な画像や特徴を生成するための高度な深層アーキテクチャの開発を試みる。
しかし、これらの手法は、イメージング因子が不安定、過敏、複雑化しているため、限られた範囲でのみ有効である。
高品質な画像や特徴を扱うこれらのアプローチとは異なり、本論文は検出器フレンドリーな画像から伝達可能な事前知識を求める。
前のガイドは検出を妨害する劣化を除去する。
統計学的には, 検出器フレンドリー (dfui) と水中画像の高度に劣化した領域は, 特徴分布ギャップが明らかであり, その軽度に劣化した領域は重なり合っている。
そこで本研究では,dfui画像と水中画像の高度劣化パッチの深部表現のマッピングを学習するための残差特徴伝達モジュール(rftm)を提案し,そのマッピングを水中検出のための高度劣化プリアー(hdp)とする。
統計特性は画像の内容に依存しないので,意味ラベルの監督なしにHDPを学習し,一般的なCNNベースの特徴抽出ネットワークに接続して水中物体検出の性能を向上させることができる。
URPC2020とUODDの評価では、ベルとホイッスルがなければ、我々の手法はCNNベースの検出器をはるかに上回っている。
高速かつパラメータの少ない本手法は変圧器型検出器よりも性能がよい。
私たちのコードとDFUIデータセットはhttps://github.com/xiaoDetection/Learning-Heavily-Degraed-Prior.orgにある。
関連論文リスト
- Performance Assessment of Feature Detection Methods for 2-D FS Sonar Imagery [11.23455335391121]
主な課題は、一様でない照明と、濁った環境での視界の低下である。
高周波フォワードフォワードソナーカメラはこれらの問題に対処する。
5種類のソナー装置の実際のソナー画像を用いた特徴検出器の評価を行った。
論文 参考訳(メタデータ) (2024-09-11T04:35:07Z) - Underwater Object Detection Enhancement via Channel Stabilization [12.994898879803642]
海洋ゴミは水生生態系を危険にさらし、永続的な課題を提示している。
Detectron2のバックボーンには,さまざまなベースモデルとコンフィギュレーションが用意されています。
本稿では,単純化された画像強調モデルとともに,新しいチャネル安定化手法を提案する。
論文 参考訳(メタデータ) (2024-08-02T14:28:49Z) - DA-HFNet: Progressive Fine-Grained Forgery Image Detection and Localization Based on Dual Attention [12.36906630199689]
DA-HFNet鍛造画像データセットをテキストまたは画像支援GANおよび拡散モデルで作成する。
我々のゴールは、階層的なプログレッシブネットワークを使用して、異なるスケールの偽造物を検出およびローカライゼーションするために捕獲することである。
論文 参考訳(メタデータ) (2024-06-03T16:13:33Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Unpaired Overwater Image Defogging Using Prior Map Guided CycleGAN [60.257791714663725]
オーバーウォーターシーンで画像をデフォグするための先行マップガイドサイクロン (PG-CycleGAN) を提案する。
提案手法は,最先端の教師付き,半教師付き,非教師付きデグジングアプローチより優れている。
論文 参考訳(メタデータ) (2022-12-23T03:00:28Z) - GAMMA: Generative Augmentation for Attentive Marine Debris Detection [0.0]
そこで本稿では,水中デブリデータによる視覚的検出の不適切な問題を解決するために,効率的で生成的な拡張手法を提案する。
我々は、CycleGANをデータ拡張技術として使用し、地球上のプラスチックのオープンで豊富なデータを水中画像に変換する。
また,アテンション機構を用いた水中デブリ検出のための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-12-07T16:30:51Z) - Deep Convolutional Pooling Transformer for Deepfake Detection [54.10864860009834]
本研究では,局所的・グローバル的に決定的な画像特徴を取り入れた深部畳み込み変換器を提案する。
具体的には,抽出した特徴を充実させ,有効性を高めるために,畳み込みプーリングと再アテンションを適用した。
提案手法は、内部実験と相互データセット実験の両方において、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2022-09-12T15:05:41Z) - Unsupervised Domain Adaptation from Synthetic to Real Images for
Anchorless Object Detection [0.0]
本稿では,アンカーレス物体検出器に非監視領域適応法を実装した。
私たちの仕事では、合成画像を含むドメイン適応問題のために、最新のアンカーレスアーキテクチャの1つである CenterNet を使用します。
論文 参考訳(メタデータ) (2020-12-15T10:51:43Z) - Why Normalizing Flows Fail to Detect Out-of-Distribution Data [51.552870594221865]
正規化フローは、イン・オブ・ディストリビューションデータとアウト・オブ・ディストリビューションデータの区別に失敗する。
フローは局所的な画素相関と画像からラテンス空間への変換を学習する。
フロー結合層のアーキテクチャを変更することで、ターゲットデータのセマンティック構造を学ぶためのフローに偏りがあることが示される。
論文 参考訳(メタデータ) (2020-06-15T17:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。