論文の概要: MFL-YOLO: An Object Detection Model for Damaged Traffic Signs
- arxiv url: http://arxiv.org/abs/2309.06750v1
- Date: Wed, 13 Sep 2023 06:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 15:11:48.362011
- Title: MFL-YOLO: An Object Detection Model for Damaged Traffic Signs
- Title(参考訳): MFL-YOLO:損傷した交通信号の物体検出モデル
- Authors: Tengyang Chen and Jiangtao Ren
- Abstract要約: 我々は、MFL-YOLO(Mutual Feature Levels Loss enhanced YOLO)という、YOLOv5sに基づく改善されたオブジェクト検出手法を提案する。
YOLOv5sと比較して、MFL-YOLOはF1スコアとmAPの4.3と5.1を改善し、FLOPsを8.9%削減しました。
Grad-CAM熱マップの可視化は、我々のモデルが損傷した交通標識の局所的な詳細に集中できることを示している。
- 参考スコア(独自算出の注目度): 0.32634122554914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic signs are important facilities to ensure traffic safety and smooth
flow, but may be damaged due to many reasons, which poses a great safety
hazard. Therefore, it is important to study a method to detect damaged traffic
signs. Existing object detection techniques for damaged traffic signs are still
absent. Since damaged traffic signs are closer in appearance to normal ones, it
is difficult to capture the detailed local damage features of damaged traffic
signs using traditional object detection methods. In this paper, we propose an
improved object detection method based on YOLOv5s, namely MFL-YOLO (Mutual
Feature Levels Loss enhanced YOLO). We designed a simple cross-level loss
function so that each level of the model has its own role, which is beneficial
for the model to be able to learn more diverse features and improve the fine
granularity. The method can be applied as a plug-and-play module and it does
not increase the structural complexity or the computational complexity while
improving the accuracy. We also replaced the traditional convolution and CSP
with the GSConv and VoVGSCSP in the neck of YOLOv5s to reduce the scale and
computational complexity. Compared with YOLOv5s, our MFL-YOLO improves 4.3 and
5.1 in F1 scores and mAP, while reducing the FLOPs by 8.9%. The Grad-CAM heat
map visualization shows that our model can better focus on the local details of
the damaged traffic signs. In addition, we also conducted experiments on
CCTSDB2021 and TT100K to further validate the generalization of our model.
- Abstract(参考訳): 交通標識は交通安全と円滑な流れを確保するために重要な施設であるが、多くの理由で損傷し、大きな安全上の危険をもたらす可能性がある。
したがって、損傷した交通標識を検出する方法の研究が重要である。
損傷した交通標識に対する既存の物体検出技術はいまだ欠落している。
損傷した交通標識は通常の標識に近く見えるため、従来の物体検出手法で損傷した交通標識の詳細な局所的損傷の特徴を捉えることは困難である。
本稿では,MFL-YOLO(Mutual Feature Levels Loss enhanced YOLO)という,YOLOv5sに基づくオブジェクト検出手法を提案する。
私たちは、モデルの各レベルが独自の役割を持つように、単純なクロスレベル損失関数を設計しました。
この方法はプラグアンドプレイモジュールとして適用でき、精度を向上しながら構造的複雑さや計算複雑性を増大させることはない。
また,従来の畳み込みとCSPを GSConv と VoVGSCSP を YOLOv5s の首に置き換えて,スケールと計算の複雑さを低減した。
YOLOv5sと比較して、MFL-YOLOはF1スコアとmAPの4.3と5.1を改善し、FLOPsを8.9%削減しました。
Grad-CAM熱マップの可視化は、我々のモデルが損傷した交通標識の局所的な詳細に集中できることを示している。
さらに,CCTSDB2021とTT100Kについても実験を行い,モデルの一般化のさらなる検証を行った。
関連論文リスト
- Improving Traffic Flow Predictions with SGCN-LSTM: A Hybrid Model for Spatial and Temporal Dependencies [55.2480439325792]
本稿ではSGCN-LSTM(Signal-Enhanced Graph Convolutional Network Long Short Term Memory)モデルを提案する。
PEMS-BAYロードネットワークトラフィックデータセットの実験は、SGCN-LSTMモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-11-01T00:37:00Z) - YOLO-ELA: Efficient Local Attention Modeling for High-Performance Real-Time Insulator Defect Detection [0.0]
無人航空機からの絶縁体欠陥検出のための既存の検出方法は、複雑な背景や小さな物体と競合する。
本稿では,この課題に対処するため,新しい注目基盤アーキテクチャであるYOLO-ELAを提案する。
高分解能UAV画像による実験結果から,本手法は96.9% mAP0.5,リアルタイム検出速度74.63フレーム/秒を実現した。
論文 参考訳(メタデータ) (2024-10-15T16:00:01Z) - Human-in-the-loop Reasoning For Traffic Sign Detection: Collaborative Approach Yolo With Video-llava [0.0]
本稿では,映像解析と推論を組み合わせる手法を提案する。
ビデオラバの誘導と推論能力により,YOLOの信号検出能力が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-07T14:50:56Z) - YOLO9tr: A Lightweight Model for Pavement Damage Detection Utilizing a Generalized Efficient Layer Aggregation Network and Attention Mechanism [0.0]
本稿では,舗装損傷検出のための軽量物体検出モデルYOLO9trを提案する。
YOLO9trはYOLOv9アーキテクチャに基づいており、機能抽出とアテンション機構を強化する部分的なアテンションブロックを備えている。
このモデルは、最大136FPSのフレームレートを実現し、ビデオ監視や自動検査システムなどのリアルタイムアプリケーションに適合する。
論文 参考訳(メタデータ) (2024-06-17T06:31:43Z) - Detection of Micromobility Vehicles in Urban Traffic Videos [7.5867752610196915]
本研究では、単一フレームオブジェクト検出の精度と速度と、オブジェクト検出フレームワークが提供するよりリッチな機能を組み合わせた、適応型検出モデルを導入する。
この融合は、YOLOX検出能力に時間的視点をもたらし、都市移動パターンをよりよく理解することができる。
都市マイクロモビリティのシナリオをキュレートしたデータセットを用いて実験し、既存の最先端手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-02-28T17:31:39Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Improved YOLOv5 network for real-time multi-scale traffic sign detection [4.5598087061051755]
本稿では,アダプティブアテンションモジュール (AAM) と機能拡張モジュール (FEM) を利用して特徴マップ生成の過程での情報損失を低減する機能ピラミッドモデル AF-FPN を提案する。
YOLOv5の本来の特徴ピラミッドネットワークをAF-FPNに置き換え、YOLOv5ネットワークのマルチスケールターゲットの検出性能を向上させる。
論文 参考訳(メタデータ) (2021-12-16T11:02:12Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。