論文の概要: U-DECN: End-to-End Underwater Object Detection ConvNet with Improved DeNoising Training
- arxiv url: http://arxiv.org/abs/2408.05780v1
- Date: Sun, 11 Aug 2024 14:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 15:37:52.208426
- Title: U-DECN: End-to-End Underwater Object Detection ConvNet with Improved DeNoising Training
- Title(参考訳): U-DECN:Denoising Trainingを改良した水中物体検出ネットワーク
- Authors: Zhuoyan Liu, Bo Wang, Ye Li,
- Abstract要約: 水中物体検出は、特定の環境問題により、検出器の走行速度と展開効率の要求が高い。
新しい水中物体検出器は、ネットワークアーキテクチャや訓練の複雑化を防ぎ、水中車両プラットフォームへの応用と展開を妨げている。
水中カラーキャストノイズに対する問合せ型エンドツーエンドオブジェクト検出器(ConvNetエンコーダ・デコーダアーキテクチャ)であるDenoising Training (U-DECN)を改善した水中DECを提案する。
- 参考スコア(独自算出の注目度): 5.1521824924545845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater object detection has higher requirements of running speed and deployment efficiency for the detector due to its specific environmental challenges. NMS of two- or one-stage object detectors and transformer architecture of query-based end-to-end object detectors are not conducive to deployment on underwater embedded devices with limited processing power. As for the detrimental effect of underwater color cast noise, recent underwater object detectors make network architecture or training complex, which also hinders their application and deployment on underwater vehicle platforms. In this paper, we propose the Underwater DECO with improved deNoising training (U-DECN), the query-based end-to-end object detector (with ConvNet encoder-decoder architecture) for underwater color cast noise that addresses the above problems. We integrate advanced technologies from DETR variants into DECO and design optimization methods specifically for the ConvNet architecture, including Separate Contrastive DeNoising Forward and Deformable Convolution in SIM. To address the underwater color cast noise issue, we propose an underwater color denoising query to improve the generalization of the model for the biased object feature information by different color cast noise. Our U-DECN, with ResNet-50 backbone, achieves 61.4 AP (50 epochs), 63.3 AP (72 epochs), 64.0 AP (100 epochs) on DUO, and 21 FPS (5 times faster than Deformable DETR and DINO 4 FPS) on NVIDIA AGX Orin by TensorRT FP16, outperforming the other state-of-the-art query-based end-to-end object detectors. The code is available at https://github.com/LEFTeyex/U-DECN.
- Abstract(参考訳): 水中物体検出は、特定の環境問題により、検出器の走行速度と展開効率の要求が高い。
2段または1段のオブジェクト検出器のNMSとクエリベースのエンドツーエンドオブジェクト検出器のトランスフォーマーアーキテクチャは、処理能力に制限のある水中組み込みデバイスへのデプロイには適していない。
水中のカラーキャストノイズによる有害な影響については、最近の水中物体検知器はネットワークアーキテクチャや訓練の複雑化を防ぎ、水中車両プラットフォームへの適用と展開を妨げている。
本稿では,上述した問題に対処する水中カラーキャストノイズに対して,問合せに基づくエンドツーエンドオブジェクト検出器(ConvNetエンコーダ・デコーダアーキテクチャ)であるDenoising Training(U-DECN)を改良した水中DECを提案する。
我々は, DETR の派生技術から DECO へ統合し, SIM における分離コントラスト・デノイング・フォワードやデフォルム・コンボリュータ・コンボリュータを含む ConvNet アーキテクチャに特化した最適化手法を設計する。
水中のカラーキャストノイズ問題に対処するため,異なるカラーキャストノイズによる偏りのある物体特徴情報のモデルの一般化を改善するために,水中のカラーキャストノイズクエリを提案する。
我々のU-DECNはResNet-50のバックボーンで、61.4 AP (50 epochs)、63.3 AP (72 epochs)、64.0 AP (100 epochs)、NVIDIA AGX OrinのTensorRT FP16による21 FPS (Deformable DETRおよびDINO 4 FPSの5倍速い)を達成し、他の最先端のクエリベースのエンドツーエンドオブジェクト検出器よりも優れています。
コードはhttps://github.com/LEFTeyex/U-DECN.comで公開されている。
関連論文リスト
- Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - Improving Underwater Visual Tracking With a Large Scale Dataset and
Image Enhancement [70.2429155741593]
本稿では,水中ビジュアルオブジェクト追跡(UVOT)のための新しいデータセットと汎用トラッカ拡張手法を提案する。
水中環境は、一様でない照明条件、視界の低さ、鋭さの欠如、コントラストの低さ、カモフラージュ、懸濁粒子からの反射を示す。
本研究では,追尾品質の向上に特化して設計された水中画像強調アルゴリズムを提案する。
この手法により、最先端(SOTA)ビジュアルトラッカーの最大5.0%のAUCの性能が向上した。
論文 参考訳(メタデータ) (2023-08-30T07:41:26Z) - Learning Heavily-Degraded Prior for Underwater Object Detection [59.5084433933765]
本稿では、検出器フレンドリーな画像から、転送可能な事前知識を求める。
これは、検出器フレンドリー(DFUI)と水中画像の高度に劣化した領域が、特徴分布のギャップがあることを統計的に観察したものである。
高速かつパラメータの少ない本手法は変圧器型検出器よりも優れた性能を保っている。
論文 参考訳(メタデータ) (2023-08-24T12:32:46Z) - UDepth: Fast Monocular Depth Estimation for Visually-guided Underwater
Robots [4.157415305926584]
低コスト水中ロボットの3次元認識機能を実現するための高速な単眼深度推定法を提案する。
我々は,自然の水中シーンの画像形成特性に関するドメイン知識を取り入れた,UDepthという新しいエンド・ツー・エンドの深層学習パイプラインを定式化した。
論文 参考訳(メタデータ) (2022-09-26T01:08:36Z) - FOVEA: Foveated Image Magnification for Autonomous Navigation [53.69803081925454]
入力キャンバスを小さく保ちながら、ある領域を弾性的に拡大する注意的アプローチを提案する。
提案手法は,高速R-CNNより高速かつ微調整の少ない検出APを高速化する。
Argoverse-HD と BDD100K の自律走行データセットでは,提案手法が標準の高速 R-CNN を超越した検出APを微調整なしで促進することを示す。
論文 参考訳(メタデータ) (2021-08-27T03:07:55Z) - Efficient DETR: Improving End-to-End Object Detector with Dense Prior [7.348184873564071]
エンドツーエンドのオブジェクト検出のためのシンプルで効率的なパイプラインであるEfficient DETRを提案します。
密度検出とスパースセット検出の両方を利用することで、効率的なdetrはオブジェクトコンテナを初期化する前に密度を活用する。
MS COCOで行った実験により,3つのエンコーダ層と1つのデコーダ層しか持たない手法が,最先端のオブジェクト検出手法と競合する性能を発揮することが示された。
論文 参考訳(メタデータ) (2021-04-03T06:14:24Z) - Unsupervised Domain Adaptation from Synthetic to Real Images for
Anchorless Object Detection [0.0]
本稿では,アンカーレス物体検出器に非監視領域適応法を実装した。
私たちの仕事では、合成画像を含むドメイン適応問題のために、最新のアンカーレスアーキテクチャの1つである CenterNet を使用します。
論文 参考訳(メタデータ) (2020-12-15T10:51:43Z) - DANAE: a denoising autoencoder for underwater attitude estimation [1.0312968200748116]
DANAEは、カルマンフィルタIMU/AHRSデータ統合で動作する、姿勢推定のためのDenoising AutoeNcoderである。
本稿では、DANAEが堅牢で信頼性が高く、カルマンフィルタの結果を大幅に改善していることを示す。
論文 参考訳(メタデータ) (2020-11-13T10:53:01Z) - AQD: Towards Accurate Fully-Quantized Object Detection [94.06347866374927]
本稿では,浮動小数点演算を除去するために,AQDと呼ばれる高精度な量子化オブジェクト検出ソリューションを提案する。
我々のAQDは、非常に低ビットのスキームの下での完全精度と比較して、同等またはそれ以上の性能を実現しています。
論文 参考訳(メタデータ) (2020-07-14T09:07:29Z) - End-to-End Object Detection with Transformers [88.06357745922716]
本稿では,オブジェクト検出を直接セット予測問題とみなす新しい手法を提案する。
我々のアプローチは検出パイプラインを合理化し、手作業で設計された多くのコンポーネントの必要性を効果的に除去する。
この新しいフレームワークの主な構成要素は、Detection TRansformerまたはDETRと呼ばれ、セットベースのグローバルな損失である。
論文 参考訳(メタデータ) (2020-05-26T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。