論文の概要: A novel Multi to Single Module for small object detection
- arxiv url: http://arxiv.org/abs/2303.14977v1
- Date: Mon, 27 Mar 2023 08:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 16:26:52.581134
- Title: A novel Multi to Single Module for small object detection
- Title(参考訳): 小型物体検出のための新しいマルチ・ツー・シングルモジュール
- Authors: Xiaohui Guo
- Abstract要約: 小さな物体検出器の性能は、しばしばピクセルの欠如と重要な特徴の欠如によって損なわれる。
本稿では,特徴抽出と精細化を改良し,特定の層を拡張したMulti to Single Module (M2S)を提案する。
提案手法の有効性をVisDrone2021-DETとSeaDronesSeeV2の2つのデータセットで評価した。
- 参考スコア(独自算出の注目度): 2.920753968664803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Small object detection presents a significant challenge in computer vision
and object detection. The performance of small object detectors is often
compromised by a lack of pixels and less significant features. This issue stems
from information misalignment caused by variations in feature scale and
information loss during feature processing. In response to this challenge, this
paper proposes a novel the Multi to Single Module (M2S), which enhances a
specific layer through improving feature extraction and refining features.
Specifically, M2S includes the proposed Cross-scale Aggregation Module (CAM)
and explored Dual Relationship Module (DRM) to improve information extraction
capabilities and feature refinement effects. Moreover, this paper enhances the
accuracy of small object detection by utilizing M2S to generate an additional
detection head. The effectiveness of the proposed method is evaluated on two
datasets, VisDrone2021-DET and SeaDronesSeeV2. The experimental results
demonstrate its improved performance compared with existing methods. Compared
to the baseline model (YOLOv5s), M2S improves the accuracy by about 1.1\% on
the VisDrone2021-DET testing dataset and 15.68\% on the SeaDronesSeeV2
validation set.
- Abstract(参考訳): 小型物体検出はコンピュータビジョンと物体検出において重要な課題となる。
小さな物体検出器の性能は、しばしばピクセルの欠如と重要でない特徴によって損なわれる。
この問題は、特徴スケールの変動と特徴処理時の情報損失に起因する情報不一致に起因する。
この課題に対して,本論文では,特徴抽出と精細化を改良し,特定の層を強化するM2S(Multi to Single Module)を提案する。
具体的には、M2Sは、情報抽出機能と機能改善効果を改善するために提案されたクロススケールアグリゲーションモジュール(CAM)と2つの関係モジュール(DRM)を含んでいる。
さらに,m2sを用いて検出ヘッドを付加することにより,小型物体検出の精度を向上させる。
提案手法の有効性をVisDrone2021-DETとSeaDronesSeeV2の2つのデータセットで評価した。
実験の結果,既存手法と比較して性能が向上した。
ベースラインモデル(yolov5s)と比較して、m2sはvisdrone2021-detテストデータセットで約1.1\%、seadronesseev2検証セットで15.68\%向上している。
関連論文リスト
- Efficient Meta-Learning Enabled Lightweight Multiscale Few-Shot Object Detection in Remote Sensing Images [15.12889076965307]
YOLOv7ワンステージ検出器は、新しいメタラーニングトレーニングフレームワークの対象となっている。
この変換により、検出器はFSODのタスクに十分対応できると同時に、その固有の軽量化の利点を活かすことができる。
提案検出器の有効性を検証するため, 現状の検出器と性能比較を行った。
論文 参考訳(メタデータ) (2024-04-29T04:56:52Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Tucker Bilinear Attention Network for Multi-scale Remote Sensing Object
Detection [10.060030309684953]
リモートセンシング対象の大規模変動は、VHRリモートセンシング対象検出における大きな課題の1つである。
本稿では2つの新しいモジュール, Guided Attention と Tucker Bilinear Attention を提案する。
2つのモジュールに基づいて、我々は新しいマルチスケールリモートセンシングオブジェクト検出フレームワークを構築した。
論文 参考訳(メタデータ) (2023-03-09T15:20:03Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Progressive Multi-scale Fusion Network for RGB-D Salient Object
Detection [9.099589602551575]
本稿では,いわゆるプログレッシブ・マルチスケール・フュージョン法の利点について論じ,マスク誘導型特徴集合モジュールを提案する。
提案フレームワークは,異なるモードの2つの特徴を効果的に組み合わせ,誤った深さ特徴の影響を軽減する。
さらに,マスク誘導型改良モジュール(MGRM)を導入し,高レベルの意味的特徴を補完し,マルチスケール融合から無関係な特徴を減らす。
論文 参考訳(メタデータ) (2021-06-07T20:02:39Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - SWIPENET: Object detection in noisy underwater images [41.35601054297707]
本稿では,この2つの問題に対処するために,Sample-WeIghted hyPEr Network(SWIPENET)とCurriculum Multi-Class Adaboost(CMA)という堅牢なトレーニングパラダイムを提案する。
SWIPENETのバックボーンは、複数の高解像度かつセマンティックリッチなハイパーフィーチャーマップを生成し、小さなオブジェクト検出を大幅に改善する。
簡単な概念から難しい概念まで学習を促進する人間の教育プロセスに着想を得て,まず騒音の影響を受けないクリーンな検出器を訓練するCMA訓練パラダイムを提案する。
論文 参考訳(メタデータ) (2020-10-19T16:41:20Z) - Condensing Two-stage Detection with Automatic Object Key Part Discovery [87.1034745775229]
2段階の物体検出器は通常、高い精度を達成するために、検出ヘッドのために過度に大きなモデルを必要とする。
そこで本研究では,2段階検出ヘッドのモデルパラメータを,対象キー部分に集中させることで縮合・縮小できることを示す。
提案手法は、一般的な2段検出ヘッドのモデルパラメータの約50%を放棄しながら、元の性能を一貫して維持する。
論文 参考訳(メタデータ) (2020-06-10T01:20:47Z) - Underwater object detection using Invert Multi-Class Adaboost with deep
learning [37.14538666012363]
小型物体検出のための新しいニューラルネットワークアーキテクチャであるSample-WeIghted hyPEr Network(SWIPENet)を提案する。
提案するSWIPENet+IMAフレームワークは,複数の最先端オブジェクト検出手法に対して,検出精度の向上を実現する。
論文 参考訳(メタデータ) (2020-05-23T15:30:38Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。