論文の概要: YOLO-ROC: A High-Precision and Ultra-Lightweight Model for Real-Time Road Damage Detection
- arxiv url: http://arxiv.org/abs/2507.23225v1
- Date: Thu, 31 Jul 2025 03:35:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 17:19:09.024823
- Title: YOLO-ROC: A High-Precision and Ultra-Lightweight Model for Real-Time Road Damage Detection
- Title(参考訳): YOLO-ROC:リアルタイム道路損傷検出のための高精度・超軽量モデル
- Authors: Zicheng Lin, Weichao Pan,
- Abstract要約: 道路損傷検出は、交通安全を確保し、インフラの整合性を維持するための重要な課題である。
本稿では, 道路直交コンパクト(YOLO-ROC)の高精度軽量モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Road damage detection is a critical task for ensuring traffic safety and maintaining infrastructure integrity. While deep learning-based detection methods are now widely adopted, they still face two core challenges: first, the inadequate multi-scale feature extraction capabilities of existing networks for diverse targets like cracks and potholes, leading to high miss rates for small-scale damage; and second, the substantial parameter counts and computational demands of mainstream models, which hinder their deployment for efficient, real-time detection in practical applications. To address these issues, this paper proposes a high-precision and lightweight model, YOLO - Road Orthogonal Compact (YOLO-ROC). We designed a Bidirectional Multi-scale Spatial Pyramid Pooling Fast (BMS-SPPF) module to enhance multi-scale feature extraction and implemented a hierarchical channel compression strategy to reduce computational complexity. The BMS-SPPF module leverages a bidirectional spatial-channel attention mechanism to improve the detection of small targets. Concurrently, the channel compression strategy reduces the parameter count from 3.01M to 0.89M and GFLOPs from 8.1 to 2.6. Experiments on the RDD2022_China_Drone dataset demonstrate that YOLO-ROC achieves a mAP50 of 67.6%, surpassing the baseline YOLOv8n by 2.11%. Notably, the mAP50 for the small-target D40 category improved by 16.8%, and the final model size is only 2.0 MB. Furthermore, the model exhibits excellent generalization performance on the RDD2022_China_Motorbike dataset.
- Abstract(参考訳): 道路損傷検出は、交通安全を確保し、インフラの整合性を維持するための重要な課題である。
ディープラーニングベースの検出手法が広く採用されている一方で、それらは依然として2つの主要な課題に直面している。1つは、クラックやポットホールのような多様なターゲットのための既存のネットワークのマルチスケールの特徴抽出能力の欠如であり、小規模のダメージに対して高いミス率をもたらしている。
これらの課題に対処するために, 高速軽量モデル YOLO - Road Orthogonal Compact (YOLO-ROC) を提案する。
BMS-SPPF (Bidirectional Multi-scale Spatial Pyramid Pooling Fast) モジュールを設計し, マルチスケール特徴抽出を強化し, 計算複雑性を低減するための階層型チャネル圧縮戦略を実装した。
BMS-SPPFモジュールは、双方向の空間チャネルアテンション機構を利用して、小さなターゲットの検出を改善する。
同時に、チャネル圧縮戦略はパラメータ数を3.01Mから0.89M、GFLOPを8.1から2.6に削減する。
RDD2022_ China_Droneデータセットの実験では、YOLO-ROCが67.6%のmAP50を達成し、ベースラインのYOLOv8nを2.11%上回った。
特に、小型のD40カテゴリのmAP50は16.8%改善され、最終的なモデルサイズは2.0MBに過ぎなかった。
さらに、RDD2022_ China_Motorbikeデータセット上での優れた一般化性能を示す。
関連論文リスト
- Geminet: Learning the Duality-based Iterative Process for Lightweight Traffic Engineering in Changing Topologies [53.38648279089736]
Geminetは軽量でスケーラブルなMLベースのTEフレームワークで、トポロジの変更を処理できる。
そのニューラルネットワークサイズは、既存のスキームの0.04%から7%に過ぎない。
大規模なトポロジでトレーニングすると、Geminetは10ギB未満のメモリを消費し、HARPが要求する80ギBの8倍以下である。
論文 参考訳(メタデータ) (2025-06-30T09:09:50Z) - A lightweight model FDM-YOLO for small target improvement based on YOLOv8 [0.0]
小さいターゲットは、低いピクセル数、複雑な背景、様々な射撃角度のために検出が困難である。
本稿では,小目標検出に焦点をあて,低計算制約下での物体検出手法について検討する。
論文 参考訳(メタデータ) (2025-03-06T14:06:35Z) - YOLO-MST: Multiscale deep learning method for infrared small target detection based on super-resolution and YOLO [0.18641315013048293]
本稿では,画像超解像技術とマルチスケール観測を組み合わせた深層学習赤外線小目標検出手法を提案する。
この手法の2つの公開データセットであるSIRSTとIRISでのmAP@0.5検出率は、それぞれ96.4%と99.5%に達した。
論文 参考訳(メタデータ) (2024-12-27T18:43:56Z) - DSORT-MCU: Detecting Small Objects in Real-Time on Microcontroller Units [1.4447019135112429]
本稿では,YOLOモデルや一般的なFOMOネットワークを含む,軽量でエネルギー効率の高い物体検出ネットワークに対する適応型タイリング手法を提案する。
提案したタイリングにより,大規模検出モデルと比較して精度が損なわれることなく,低消費電力のMCU上で物体検出が可能となる。
論文 参考訳(メタデータ) (2024-10-22T07:37:47Z) - DAPONet: A Dual Attention and Partially Overparameterized Network for Real-Time Road Damage Detection [4.185368042845483]
ストリートビュー画像データ(SVRDD)を用いたリアルタイム道路損傷検出のためのDAPONetを提案する。
DAPONetは、SVRDDデータセット上で70.1%のmAP50を達成し、YOLOv10nを10.4%上回り、パラメータを1.6M、FLOPを1.7Gに減らし、それぞれ41%、80%削減した。
MS COCO 2017 valデータセットでは、DAPONetはmAP50-95が33.4%、効率の良いDet-D1より0.8%高く、パラメータとFLOPの両方が74%減少している。
論文 参考訳(メタデータ) (2024-09-03T04:53:32Z) - LeYOLO, New Embedded Architecture for Object Detection [0.0]
MSCOCOをベース検証セットとして用いたオブジェクト検出モデルに2つの重要な貢献点を紹介する。
まず,SSDLiteに匹敵する推論速度を維持する汎用検出フレームワークであるLeNeckを提案する。
第2に, YOLOアーキテクチャにおける計算効率の向上を目的とした, 効率的なオブジェクト検出モデルであるLeYOLOを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Rethinking Mobile Block for Efficient Attention-based Models [60.0312591342016]
本稿では、パラメータ、FLOP、性能をトレードオフしながら、高密度予測のための現代的で効率的で軽量なモデルを開発することに焦点を当てる。
Inverted Residual Block (IRB) は軽量CNNの基盤として機能するが、注目に基づく研究ではその存在は認められていない。
我々はCNNベースのIRBをアテンションベースモデルに拡張し、軽量モデル設計のためのMMB(One-Residual Meta Mobile Block)を抽象化する。
論文 参考訳(メタデータ) (2023-01-03T15:11:41Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。