論文の概要: Real-Time Dynamic Scale-Aware Fusion Detection Network: Take Road Damage Detection as an example
- arxiv url: http://arxiv.org/abs/2409.02546v1
- Date: Wed, 4 Sep 2024 09:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 19:30:37.218028
- Title: Real-Time Dynamic Scale-Aware Fusion Detection Network: Take Road Damage Detection as an example
- Title(参考訳): リアルタイムダイナミック・スケール・アウェア・フュージョン検出ネットワーク:道路損傷検出を例に
- Authors: Weichao Pan, Xu Wang, Wenqing Huan,
- Abstract要約: 道路被害検知(RDD)は,都市部における日常のメンテナンスと安全のために重要である。
現在のUAVベースのRDD研究は、まだ多くの課題に直面している。
背景干渉を自動的に除去できるマルチスケール適応道路損傷検出モデルを設計する。
- 参考スコア(独自算出の注目度): 3.334973867478745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unmanned Aerial Vehicle (UAV)-based Road Damage Detection (RDD) is important for daily maintenance and safety in cities, especially in terms of significantly reducing labor costs. However, current UAV-based RDD research is still faces many challenges. For example, the damage with irregular size and direction, the masking of damage by the background, and the difficulty of distinguishing damage from the background significantly affect the ability of UAV to detect road damage in daily inspection. To solve these problems and improve the performance of UAV in real-time road damage detection, we design and propose three corresponding modules: a feature extraction module that flexibly adapts to shape and background; a module that fuses multiscale perception and adapts to shape and background ; an efficient downsampling module. Based on these modules, we designed a multi-scale, adaptive road damage detection model with the ability to automatically remove background interference, called Dynamic Scale-Aware Fusion Detection Model (RT-DSAFDet). Experimental results on the UAV-PDD2023 public dataset show that our model RT-DSAFDet achieves a mAP50 of 54.2%, which is 11.1% higher than that of YOLOv10-m, an efficient variant of the latest real-time object detection model YOLOv10, while the amount of parameters is reduced to 1.8M and FLOPs to 4.6G, with a decreased by 88% and 93%, respectively. Furthermore, on the large generalized object detection public dataset MS COCO2017 also shows the superiority of our model with mAP50-95 is the same as YOLOv9-t, but with 0.5% higher mAP50, 10% less parameters volume, and 40% less FLOPs.
- Abstract(参考訳): 無人航空機(UAV)をベースとした道路被害検知(RDD)は、特に労働コストを大幅に削減する上で、都市における日々のメンテナンスと安全のために重要である。
しかし、現在のUAVベースのRDD研究は依然として多くの課題に直面している。
例えば、不規則な大きさと方向の損傷、背景による損傷のマスキング、背景からの損傷の識別の困難さは、日々の検査において道路損傷を検出するUAVの能力に大きく影響する。
これらの課題を解決し, リアルタイム道路損傷検出におけるUAVの性能を向上させるために, 形状と背景に柔軟に適応する特徴抽出モジュール, マルチスケールの知覚を融合させ, 形状と背景に適応するモジュール, 効率的なダウンサンプリングモジュールの3つのモジュールの設計と提案を行った。
これらのモジュールに基づいて,動的スケール・アウェア・フュージョン検出モデル (RT-DSAFDet) と呼ばれる,背景干渉を自動的に除去できるマルチスケール適応道路損傷検出モデルを設計した。
UAV-PDD2023公開データセットによる実験結果から,我々のモデルRT-DSAFDetは,最新のリアルタイムオブジェクト検出モデルYOLOv10の効率的な変種であるYOLOv10-mよりも11.1%高い54.2%のmAP50を達成し,パラメータの量は1.8MとFLOPsにそれぞれ4.6Gに減少し,それぞれ88%,93%減少した。
さらに、大規模な一般化オブジェクト検出公開データセットMS COCO2017では、mAP50-95によるモデルの優位性もYOLOv9-tと同じであるが、0.5%のmAP50、10%のパラメータボリューム、40%のFLOPを持つ。
関連論文リスト
- From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - Joint-YODNet: A Light-weight Object Detector for UAVs to Achieve Above
100fps [2.5761958263376745]
小型物体を検知するためのUAVのためのJointYODNetという新しい手法を提案する。
本手法は, 小型物体の検出性能を高めるため, 接合損失関数の開発を中心に展開する。
その結果,提案した関節損失関数は,小さな物体を正確に位置決めする既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-09-27T16:57:04Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - Benchmarking the Physical-world Adversarial Robustness of Vehicle
Detection [14.202833467294765]
物理世界の敵対的攻撃は、検出モデルの堅牢性を損なう可能性がある。
Yolo v6は6.59%のAP降下率で強い抵抗を示し、ASAは14.51%のAP減少率を持つ最も効果的な攻撃アルゴリズムであった。
論文 参考訳(メタデータ) (2023-04-11T09:48:25Z) - Pushing the Limits of Fewshot Anomaly Detection in Industry Vision:
Graphcore [71.09522172098733]
FSADにおけるグラフ表現を利用して,新しい視覚不変特徴(VIIF)を異常測定特徴として利用する。
VIIFは異常識別能力を確実に向上し、Mに格納された冗長な特徴のサイズをさらに小さくすることができる。
さらに、教師なしFSADトレーニングを高速に実装し、異常検出の性能を向上させることができる、VIIFによる新しいモデルGraphCoreを提供する。
論文 参考訳(メタデータ) (2023-01-28T03:58:32Z) - Physical Attack on Monocular Depth Estimation with Optimal Adversarial
Patches [18.58673451901394]
我々は学習に基づく単眼深度推定(MDE)に対する攻撃を開発する。
我々は,攻撃のステルス性と有効性を,オブジェクト指向の対角設計,感度領域の局所化,自然スタイルのカモフラージュとバランスさせる。
実験結果から,本手法は,異なる対象オブジェクトやモデルに対して,ステルス性,有効,堅牢な逆パッチを生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-11T08:59:09Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。