論文の概要: A high-precision underwater object detection based on joint
self-supervised deblurring and improved spatial transformer network
- arxiv url: http://arxiv.org/abs/2203.04822v1
- Date: Wed, 9 Mar 2022 15:54:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 16:23:37.414793
- Title: A high-precision underwater object detection based on joint
self-supervised deblurring and improved spatial transformer network
- Title(参考訳): 共振器を用いた高精度水中物体検出と空間変圧器ネットワークの改善
- Authors: Xiuyuan Li, Fengchao Li, Jiangang Yu, Guowen An
- Abstract要約: 本稿では,共振器を用いた高精度水中物体検出(UOD)について述べる。
実験の結果,URPC 2017では47.9 mAP, URPC 2018では70.3 mAPを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning-based underwater object detection (UOD) remains a major
challenge due to the degraded visibility and difficulty to obtain sufficient
underwater object images captured from various perspectives for training. To
address these issues, this paper presents a high-precision UOD based on joint
self-supervised deblurring and improved spatial transformer network. A
self-supervised deblurring subnetwork is introduced into the designed
multi-task learning aided object detection architecture to force the shared
feature extraction module to output clean features for detection subnetwork.
Aiming at alleviating the limitation of insufficient photos from different
perspectives, an improved spatial transformer network is designed based on
perspective transformation, adaptively enriching image features within the
network. The experimental results show that the proposed UOD approach achieved
47.9 mAP in URPC2017 and 70.3 mAP in URPC2018, outperforming many
state-of-the-art UOD methods and indicating the designed method is more
suitable for UOD.
- Abstract(参考訳): 深層学習に基づく水中物体検出(UOD)は、様々な視点から得られた十分な水中物体画像を得るのが困難であるため、依然として大きな課題である。
これらの課題に対処するために,共同自己監督型デブロアリングと空間トランスフォーマネットワークの改良に基づく高精度UDDを提案する。
設計したマルチタスク学習支援オブジェクト検出アーキテクチャに自己教師付きデブロアリングサブネットを導入し、共有特徴抽出モジュールに検出サブネットのクリーンな特徴を出力させる。
異なる視点からの不備な写真の制限を軽減するため、空間トランスフォーマーネットワークを改良し、視点変換に基づいてネットワーク内の画像特徴を適応的に強化する。
実験の結果, URPC2017では47.9 mAP, URPC2018では70.3 mAPを達成し, 最先端の UOD 法よりも高い性能を示した。
関連論文リスト
- BG-YOLO: A Bidirectional-Guided Method for Underwater Object Detection [3.950042287413335]
既存の水中画像強調法は主に視覚面における指標の改善に焦点を当てている。
本稿では,BG-YOLOと呼ばれる水中物体検出のための双方向誘導手法を提案する。
提案手法は, 高度に劣化した水中のシーンにおいて, 検出器の性能が著しく向上したことを示す。
論文 参考訳(メタデータ) (2024-04-13T12:06:29Z) - D-YOLO a robust framework for object detection in adverse weather conditions [0.0]
ヘイズ、雪、雨などの逆の気象条件は、画像品質の低下を招き、深層学習に基づく検知ネットワークの性能低下を招きかねない。
画像復元とオブジェクト検出のタスクをよりうまく統合するために,注目機能融合モジュールを備えた二重経路ネットワークを設計した。
我々はまた,検出ネットワークにヘイズフリーな機能を提供するサブネットワークを提案し,特に,明瞭な特徴抽出サブネットワークと検出ネットワーク間の距離を最小化することにより,検出ネットワークの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-14T09:57:15Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - Multimodal Transformer Using Cross-Channel attention for Object Detection in Remote Sensing Images [1.662438436885552]
マルチモーダル融合は、複数のモーダルからのデータを融合することで精度を高めることが決定されている。
早期に異なるチャネル間の関係をマッピングするための新しいマルチモーダル融合戦略を提案する。
本手法は,中期・後期の手法とは対照的に,早期の融合に対処することにより,既存の手法と比較して,競争力や性能に優れる。
論文 参考訳(メタデータ) (2023-10-21T00:56:11Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - PUGAN: Physical Model-Guided Underwater Image Enhancement Using GAN with
Dual-Discriminators [120.06891448820447]
鮮明で視覚的に快適な画像を得る方法は、人々の共通の関心事となっている。
水中画像強調(UIE)の課題も、時間とともに現れた。
本稿では,UIE のための物理モデル誘導型 GAN モデルを提案する。
我々のPUGANは質的および定量的な測定値において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-06-15T07:41:12Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - Transformation-Invariant Network for Few-Shot Object Detection in Remote
Sensing Images [15.251042369061024]
FSOD(Few-shot Object Detection)は、トレーニングのために大量のラベル付きデータを頼りにしている。
リモートセンシング画像におけるオブジェクトのスケールと向きのバリエーションは、既存のFSOD法に重大な課題をもたらす。
特徴ピラミッドネットワークの統合と,クエリ機能向上のためのプロトタイプ機能の利用を提案する。
論文 参考訳(メタデータ) (2023-03-13T02:21:38Z) - Knowledge Distillation for Oriented Object Detection on Aerial Images [1.827510863075184]
本稿では,KD-RNetの知識蒸留による空中画像の回転物体検出のためのモデル圧縮手法を提案する。
大規模空中物体検出データセット(DOTA)による実験結果から,提案したKD-RNetモデルにより,パラメータ数を削減した平均値精度(mAP)が向上し,同時にKD-RNetは,基底アノテーションと高い重なり合う高品質検出を提供することで,性能を向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T14:24:16Z) - Context-Preserving Instance-Level Augmentation and Deformable
Convolution Networks for SAR Ship Detection [50.53262868498824]
ランダムな方向と部分的な情報損失によるSAR画像のターゲット形状の変形は、SAR船の検出において必須の課題である。
ターゲット内の部分的な情報損失に頑健なディープネットワークをトレーニングするためのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2022-02-14T07:01:01Z) - AdaZoom: Adaptive Zoom Network for Multi-Scale Object Detection in Large
Scenes [57.969186815591186]
大規模なシーンの検出は、小さなオブジェクトと極端なスケールの変動のために難しい問題である。
本稿では,物体検出のための焦点領域を適応的に拡大するために,フレキシブルな形状と焦点長を有する選択的拡大器として,新しい適応型Zoom(AdaZoom)ネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-19T03:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。