論文の概要: MFL-YOLO: An Object Detection Model for Damaged Traffic Signs
- arxiv url: http://arxiv.org/abs/2309.06750v1
- Date: Wed, 13 Sep 2023 06:46:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 15:11:48.362011
- Title: MFL-YOLO: An Object Detection Model for Damaged Traffic Signs
- Title(参考訳): MFL-YOLO:損傷した交通信号の物体検出モデル
- Authors: Tengyang Chen and Jiangtao Ren
- Abstract要約: 我々は、MFL-YOLO(Mutual Feature Levels Loss enhanced YOLO)という、YOLOv5sに基づく改善されたオブジェクト検出手法を提案する。
YOLOv5sと比較して、MFL-YOLOはF1スコアとmAPの4.3と5.1を改善し、FLOPsを8.9%削減しました。
Grad-CAM熱マップの可視化は、我々のモデルが損傷した交通標識の局所的な詳細に集中できることを示している。
- 参考スコア(独自算出の注目度): 0.32634122554914
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic signs are important facilities to ensure traffic safety and smooth
flow, but may be damaged due to many reasons, which poses a great safety
hazard. Therefore, it is important to study a method to detect damaged traffic
signs. Existing object detection techniques for damaged traffic signs are still
absent. Since damaged traffic signs are closer in appearance to normal ones, it
is difficult to capture the detailed local damage features of damaged traffic
signs using traditional object detection methods. In this paper, we propose an
improved object detection method based on YOLOv5s, namely MFL-YOLO (Mutual
Feature Levels Loss enhanced YOLO). We designed a simple cross-level loss
function so that each level of the model has its own role, which is beneficial
for the model to be able to learn more diverse features and improve the fine
granularity. The method can be applied as a plug-and-play module and it does
not increase the structural complexity or the computational complexity while
improving the accuracy. We also replaced the traditional convolution and CSP
with the GSConv and VoVGSCSP in the neck of YOLOv5s to reduce the scale and
computational complexity. Compared with YOLOv5s, our MFL-YOLO improves 4.3 and
5.1 in F1 scores and mAP, while reducing the FLOPs by 8.9%. The Grad-CAM heat
map visualization shows that our model can better focus on the local details of
the damaged traffic signs. In addition, we also conducted experiments on
CCTSDB2021 and TT100K to further validate the generalization of our model.
- Abstract(参考訳): 交通標識は交通安全と円滑な流れを確保するために重要な施設であるが、多くの理由で損傷し、大きな安全上の危険をもたらす可能性がある。
したがって、損傷した交通標識を検出する方法の研究が重要である。
損傷した交通標識に対する既存の物体検出技術はいまだ欠落している。
損傷した交通標識は通常の標識に近く見えるため、従来の物体検出手法で損傷した交通標識の詳細な局所的損傷の特徴を捉えることは困難である。
本稿では,MFL-YOLO(Mutual Feature Levels Loss enhanced YOLO)という,YOLOv5sに基づくオブジェクト検出手法を提案する。
私たちは、モデルの各レベルが独自の役割を持つように、単純なクロスレベル損失関数を設計しました。
この方法はプラグアンドプレイモジュールとして適用でき、精度を向上しながら構造的複雑さや計算複雑性を増大させることはない。
また,従来の畳み込みとCSPを GSConv と VoVGSCSP を YOLOv5s の首に置き換えて,スケールと計算の複雑さを低減した。
YOLOv5sと比較して、MFL-YOLOはF1スコアとmAPの4.3と5.1を改善し、FLOPsを8.9%削減しました。
Grad-CAM熱マップの可視化は、我々のモデルが損傷した交通標識の局所的な詳細に集中できることを示している。
さらに,CCTSDB2021とTT100Kについても実験を行い,モデルの一般化のさらなる検証を行った。
関連論文リスト
- Learning Traffic Anomalies from Generative Models on Real-Time Observations [49.1574468325115]
トラフィックデータの複雑な空間的および時間的依存関係をキャプチャするために,時空間生成適応ネットワーク(STGAN)フレームワークを用いる。
スウェーデンのヨーテボリで2020年に収集された42台の交通カメラから、STGANをリアルタイムで分単位でリアルタイムで観測する。
その結果, 精度が高く, 偽陽性率の低い交通異常を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2025-02-03T14:23:23Z) - Traffic Co-Simulation Framework Empowered by Infrastructure Camera Sensing and Reinforcement Learning [4.336971448707467]
マルチエージェント強化学習(MARL)は、反復シミュレーションを用いて、ネットワーク内の信号機の制御戦略の学習に特に有効である。
本研究では,高忠実度3次元モデリングと大規模交通流シミュレーションを組み合わせたCARLAとSUMOを統合したシミュレーションフレームワークを提案する。
テストベッドでの実験では、リアルタイムカメラを用いた交通状況検出におけるMARLアプローチの有効性が実証された。
論文 参考訳(メタデータ) (2024-12-05T07:01:56Z) - Improving Traffic Flow Predictions with SGCN-LSTM: A Hybrid Model for Spatial and Temporal Dependencies [55.2480439325792]
本稿ではSGCN-LSTM(Signal-Enhanced Graph Convolutional Network Long Short Term Memory)モデルを提案する。
PEMS-BAYロードネットワークトラフィックデータセットの実験は、SGCN-LSTMモデルの有効性を示す。
論文 参考訳(メタデータ) (2024-11-01T00:37:00Z) - Human-in-the-loop Reasoning For Traffic Sign Detection: Collaborative Approach Yolo With Video-llava [0.0]
本稿では,映像解析と推論を組み合わせる手法を提案する。
ビデオラバの誘導と推論能力により,YOLOの信号検出能力が向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-07T14:50:56Z) - YOLO9tr: A Lightweight Model for Pavement Damage Detection Utilizing a Generalized Efficient Layer Aggregation Network and Attention Mechanism [0.0]
本稿では,舗装損傷検出のための軽量物体検出モデルYOLO9trを提案する。
YOLO9trはYOLOv9アーキテクチャに基づいており、機能抽出とアテンション機構を強化する部分的なアテンションブロックを備えている。
このモデルは、最大136FPSのフレームレートを実現し、ビデオ監視や自動検査システムなどのリアルタイムアプリケーションに適合する。
論文 参考訳(メタデータ) (2024-06-17T06:31:43Z) - Detection of Micromobility Vehicles in Urban Traffic Videos [7.5867752610196915]
本研究では、単一フレームオブジェクト検出の精度と速度と、オブジェクト検出フレームワークが提供するよりリッチな機能を組み合わせた、適応型検出モデルを導入する。
この融合は、YOLOX検出能力に時間的視点をもたらし、都市移動パターンをよりよく理解することができる。
都市マイクロモビリティのシナリオをキュレートしたデータセットを用いて実験し、既存の最先端手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-02-28T17:31:39Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Perspective Aware Road Obstacle Detection [104.57322421897769]
道路障害物検出技術は,車間距離が大きくなるにつれて障害物の見かけの規模が減少するという事実を無視することを示す。
画像位置毎に仮想物体の見かけの大きさを符号化したスケールマップを演算することでこれを活用できる。
次に、この視点マップを利用して、遠近法に対応する大きさの道路合成物体に注入することで、トレーニングデータを生成する。
論文 参考訳(メタデータ) (2022-10-04T17:48:42Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Improved YOLOv5 network for real-time multi-scale traffic sign detection [4.5598087061051755]
本稿では,アダプティブアテンションモジュール (AAM) と機能拡張モジュール (FEM) を利用して特徴マップ生成の過程での情報損失を低減する機能ピラミッドモデル AF-FPN を提案する。
YOLOv5の本来の特徴ピラミッドネットワークをAF-FPNに置き換え、YOLOv5ネットワークのマルチスケールターゲットの検出性能を向上させる。
論文 参考訳(メタデータ) (2021-12-16T11:02:12Z) - Targeted Physical-World Attention Attack on Deep Learning Models in Road
Sign Recognition [79.50450766097686]
本稿では,現実の道路標識攻撃に対するTAA手法を提案する。
実験の結果,TAA法は攻撃成功率(約10%)を向上し,RP2法と比較して摂動損失(約4分の1)を減少させることがわかった。
論文 参考訳(メタデータ) (2020-10-09T02:31:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。