論文の概要: Real-Time Dynamic Scale-Aware Fusion Detection Network: Take Road Damage Detection as an example
- arxiv url: http://arxiv.org/abs/2409.02546v1
- Date: Wed, 4 Sep 2024 09:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-05 19:30:37.218028
- Title: Real-Time Dynamic Scale-Aware Fusion Detection Network: Take Road Damage Detection as an example
- Title(参考訳): リアルタイムダイナミック・スケール・アウェア・フュージョン検出ネットワーク:道路損傷検出を例に
- Authors: Weichao Pan, Xu Wang, Wenqing Huan,
- Abstract要約: 道路被害検知(RDD)は,都市部における日常のメンテナンスと安全のために重要である。
現在のUAVベースのRDD研究は、まだ多くの課題に直面している。
背景干渉を自動的に除去できるマルチスケール適応道路損傷検出モデルを設計する。
- 参考スコア(独自算出の注目度): 3.334973867478745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unmanned Aerial Vehicle (UAV)-based Road Damage Detection (RDD) is important for daily maintenance and safety in cities, especially in terms of significantly reducing labor costs. However, current UAV-based RDD research is still faces many challenges. For example, the damage with irregular size and direction, the masking of damage by the background, and the difficulty of distinguishing damage from the background significantly affect the ability of UAV to detect road damage in daily inspection. To solve these problems and improve the performance of UAV in real-time road damage detection, we design and propose three corresponding modules: a feature extraction module that flexibly adapts to shape and background; a module that fuses multiscale perception and adapts to shape and background ; an efficient downsampling module. Based on these modules, we designed a multi-scale, adaptive road damage detection model with the ability to automatically remove background interference, called Dynamic Scale-Aware Fusion Detection Model (RT-DSAFDet). Experimental results on the UAV-PDD2023 public dataset show that our model RT-DSAFDet achieves a mAP50 of 54.2%, which is 11.1% higher than that of YOLOv10-m, an efficient variant of the latest real-time object detection model YOLOv10, while the amount of parameters is reduced to 1.8M and FLOPs to 4.6G, with a decreased by 88% and 93%, respectively. Furthermore, on the large generalized object detection public dataset MS COCO2017 also shows the superiority of our model with mAP50-95 is the same as YOLOv9-t, but with 0.5% higher mAP50, 10% less parameters volume, and 40% less FLOPs.
- Abstract(参考訳): 無人航空機(UAV)をベースとした道路被害検知(RDD)は、特に労働コストを大幅に削減する上で、都市における日々のメンテナンスと安全のために重要である。
しかし、現在のUAVベースのRDD研究は依然として多くの課題に直面している。
例えば、不規則な大きさと方向の損傷、背景による損傷のマスキング、背景からの損傷の識別の困難さは、日々の検査において道路損傷を検出するUAVの能力に大きく影響する。
これらの課題を解決し, リアルタイム道路損傷検出におけるUAVの性能を向上させるために, 形状と背景に柔軟に適応する特徴抽出モジュール, マルチスケールの知覚を融合させ, 形状と背景に適応するモジュール, 効率的なダウンサンプリングモジュールの3つのモジュールの設計と提案を行った。
これらのモジュールに基づいて,動的スケール・アウェア・フュージョン検出モデル (RT-DSAFDet) と呼ばれる,背景干渉を自動的に除去できるマルチスケール適応道路損傷検出モデルを設計した。
UAV-PDD2023公開データセットによる実験結果から,我々のモデルRT-DSAFDetは,最新のリアルタイムオブジェクト検出モデルYOLOv10の効率的な変種であるYOLOv10-mよりも11.1%高い54.2%のmAP50を達成し,パラメータの量は1.8MとFLOPsにそれぞれ4.6Gに減少し,それぞれ88%,93%減少した。
さらに、大規模な一般化オブジェクト検出公開データセットMS COCO2017では、mAP50-95によるモデルの優位性もYOLOv9-tと同じであるが、0.5%のmAP50、10%のパラメータボリューム、40%のFLOPを持つ。
関連論文リスト
- SL-YOLO: A Stronger and Lighter Drone Target Detection Model [0.0]
本稿では,小型目標検出のボトルネックを解消する革命モデルSL-YOLO(Stronger and Lighter YOLO)を提案する。
本稿では,最も難易度の高い環境においても,非並列検出精度を確保することのできる,大規模機能融合の先駆的手法を提案する。
VisDrone 2019データセットの実験結果によると,mAP@0.5が43.0%から46.9%に向上した。
モデルパラメータは 11.1M から 9.6M に減少し、FPS は 132 に到達し、資源制約のある環境でのリアルタイムの小さな物体検出に理想的な解となる。
論文 参考訳(メタデータ) (2024-11-18T11:26:11Z) - Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - YOLO-ELA: Efficient Local Attention Modeling for High-Performance Real-Time Insulator Defect Detection [0.0]
無人航空機からの絶縁体欠陥検出のための既存の検出方法は、複雑な背景や小さな物体と競合する。
本稿では,この課題に対処するため,新しい注目基盤アーキテクチャであるYOLO-ELAを提案する。
高分解能UAV画像による実験結果から,本手法は96.9% mAP0.5,リアルタイム検出速度74.63フレーム/秒を実現した。
論文 参考訳(メタデータ) (2024-10-15T16:00:01Z) - Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - DAPONet: A Dual Attention and Partially Overparameterized Network for Real-Time Road Damage Detection [4.185368042845483]
ストリートビュー画像データ(SVRDD)を用いたリアルタイム道路損傷検出のためのDAPONetを提案する。
DAPONetは、SVRDDデータセット上で70.1%のmAP50を達成し、YOLOv10nを10.4%上回り、パラメータを1.6M、FLOPを1.7Gに減らし、それぞれ41%、80%削減した。
MS COCO 2017 valデータセットでは、DAPONetはmAP50-95が33.4%、効率の良いDet-D1より0.8%高く、パラメータとFLOPの両方が74%減少している。
論文 参考訳(メタデータ) (2024-09-03T04:53:32Z) - From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Vision Transformers, a new approach for high-resolution and large-scale
mapping of canopy heights [50.52704854147297]
分類(離散化)と連続損失関数を最適化した新しい視覚変換器(ViT)モデルを提案する。
このモデルは、従来使用されていた畳み込みベースのアプローチ(ConvNet)よりも、連続損失関数のみで最適化された精度が向上する。
論文 参考訳(メタデータ) (2023-04-22T22:39:03Z) - Pushing the Limits of Fewshot Anomaly Detection in Industry Vision:
Graphcore [71.09522172098733]
FSADにおけるグラフ表現を利用して,新しい視覚不変特徴(VIIF)を異常測定特徴として利用する。
VIIFは異常識別能力を確実に向上し、Mに格納された冗長な特徴のサイズをさらに小さくすることができる。
さらに、教師なしFSADトレーニングを高速に実装し、異常検出の性能を向上させることができる、VIIFによる新しいモデルGraphCoreを提供する。
論文 参考訳(メタデータ) (2023-01-28T03:58:32Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。