論文の概要: SBP-YOLO:A Lightweight Real-Time Model for Detecting Speed Bumps and Potholes
- arxiv url: http://arxiv.org/abs/2508.01339v1
- Date: Sat, 02 Aug 2025 12:15:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.832954
- Title: SBP-YOLO:A Lightweight Real-Time Model for Detecting Speed Bumps and Potholes
- Title(参考訳): SBP-YOLO:高速バンプとポットホール検出のための軽量リアルタイムモデル
- Authors: Chuanqi Liang, Jie Fu, Lei Luo, Miao Yu,
- Abstract要約: 本稿では, YOLOv11をベースとした軽量検出フレームワークであるSBP-YOLOを提案する。
このモデルは、効率的な計算のためにGhostConv、マルチスケール機能拡張のためのVoVGSCSPC、早期機能処理コストを削減するためのEfficency Detection (LEDH)を統合している。
- 参考スコア(独自算出の注目度): 30.847931539927753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With increasing demand for ride comfort in new energy vehicles, accurate real-time detection of speed bumps and potholes is critical for predictive suspension control. This paper proposes SBP-YOLO, a lightweight detection framework based on YOLOv11, optimized for embedded deployment. The model integrates GhostConv for efficient computation, VoVGSCSPC for multi-scale feature enhancement, and a Lightweight Efficiency Detection Head (LEDH) to reduce early-stage feature processing costs. A hybrid training strategy combining NWD loss, knowledge distillation, and Albumentations-based weather augmentation improves detection robustness, especially for small and distant targets. Experiments show SBP-YOLO achieves 87.0% mAP (outperforming YOLOv11n by 5.8%) and runs at 139.5 FPS on a Jetson AGX Xavier with TensorRT FP16 quantization. The results validate its effectiveness for real-time road condition perception in intelligent suspension systems.
- Abstract(参考訳): 新しいエネルギー車両の乗り心地の需要が増大する中、予測サスペンション制御には、高速バンプとポットホールの正確なリアルタイム検出が不可欠である。
本稿では, YOLOv11をベースとした軽量検出フレームワークであるSBP-YOLOを提案する。
このモデルは、効率的な計算のためにGhostConv、マルチスケール機能拡張のためのVoVGSCSPC、および初期機能処理コストを削減するために軽量効率検出ヘッド(LEDH)を統合している。
NWDの損失、知識の蒸留、およびArbuentationsに基づく天候改善を組み合わせたハイブリッドトレーニング戦略は、特に小規模および遠隔ターゲットにおいて、ロバスト性の検出を改善する。
実験の結果、SBP-YOLOは87.0% mAP(YOLOv11nを5.8%上回る)を獲得し、TensorRT FP16量子化を備えたJetson AGX Xavierで139.5 FPSで動作している。
その結果,インテリジェントサスペンションシステムにおけるリアルタイム道路状況認識の有効性が検証された。
関連論文リスト
- YOLO-APD: Enhancing YOLOv8 for Robust Pedestrian Detection on Complex Road Geometries [0.0]
本稿では,この課題に特化してYOLOv8フレームワークを改良した新しいディープラーニングアーキテクチャであるYOLO-APDを紹介する。
YOLO-APDは最先端の精度を達成し、77.7% mAP@0.5:0.95、例外的な歩行者リコールは96%を超えた。
リアルタイム処理能力を100 FPSで維持し、精度と効率のバランスが優れていることを示す。
論文 参考訳(メタデータ) (2025-07-07T18:03:40Z) - HGO-YOLO: Advancing Anomaly Behavior Detection with Hierarchical Features and Lightweight Optimized Detection [0.0]
HGO-YOLOはGhostHGNetv2と最適化されたパラメータ共有ヘッド(OptiConvDetect)を組み合わせた軽量検出器である。
3つの異常データセット上では、HGO-YOLOは87.4%のmAP@0.5と81.1%のリコールを、たった4.3 GFLOPsと4.6MBのYOLOv8nを+3.0% mAP、-51.7% FLOPs、1.7*の速度で1つのCPU上で56 FPSで達成している。
論文 参考訳(メタデータ) (2025-03-10T14:29:12Z) - YOLO-Vehicle-Pro: A Cloud-Edge Collaborative Framework for Object Detection in Autonomous Driving under Adverse Weather Conditions [8.820126303110545]
本稿では, YOLO-VehicleとYOLO-Vehicle-Proの2つの革新的なディープラーニングモデルを提案する。
YOLO-Vehicleは、自動運転シナリオに特化したオブジェクト検出モデルである。
YOLO-Vehicle-Proはこの基盤の上に構築されており、改良されたイメージデハージングアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-10-23T10:07:13Z) - P-YOLOv8: Efficient and Accurate Real-Time Detection of Distracted Driving [0.0]
引き離された運転は重大な安全上の問題であり、世界中で多くの死者と負傷につながっている。
本研究では、注意をそらされた運転行動を検出するための効率的でリアルタイムな機械学習モデルの必要性に対処する。
リアルタイムオブジェクト検出システムを導入し、速度と精度の両方に最適化する。
論文 参考訳(メタデータ) (2024-10-21T02:56:44Z) - EFA-YOLO: An Efficient Feature Attention Model for Fire and Flame Detection [3.334973867478745]
EAConv(Efficient Attention Downsampling)とEADown(Efficient Attention Downsampling)の2つの重要なモジュールを提案する。
これら2つのモジュールに基づいて,効率的な軽量火炎検出モデル EFA-YOLO (Efficient Feature Attention YOLO) を設計する。
EFA-YOLOは検出精度(mAP)と推論速度を著しく向上させ、モデルパラメータの量を94.6削減し、推論速度を88倍改善した。
論文 参考訳(メタデータ) (2024-09-19T10:20:07Z) - YOLO9tr: A Lightweight Model for Pavement Damage Detection Utilizing a Generalized Efficient Layer Aggregation Network and Attention Mechanism [0.0]
本稿では,舗装損傷検出のための軽量物体検出モデルYOLO9trを提案する。
YOLO9trはYOLOv9アーキテクチャに基づいており、機能抽出とアテンション機構を強化する部分的なアテンションブロックを備えている。
このモデルは、最大136FPSのフレームレートを実現し、ビデオ監視や自動検査システムなどのリアルタイムアプリケーションに適合する。
論文 参考訳(メタデータ) (2024-06-17T06:31:43Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - SATAY: A Streaming Architecture Toolflow for Accelerating YOLO Models on
FPGA Devices [48.47320494918925]
この作業は、超低レイテンシアプリケーションのために、最先端のオブジェクト検出モデルをFPGAデバイスにデプロイする際の課題に対処する。
YOLOアクセラレータにはストリーミングアーキテクチャ設計を採用しており、チップ上で完全なモデルを深くパイプライン化して実装しています。
データフロー方式でYOLOモデルの動作をサポートする新しいハードウェアコンポーネントを導入し、オンチップメモリリソースの制限に対処するために、オフチップメモリバッファリングを導入する。
論文 参考訳(メタデータ) (2023-09-04T13:15:01Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。