論文の概要: Deep Learning Models for UAV-Assisted Bridge Inspection: A YOLO Benchmark Analysis
- arxiv url: http://arxiv.org/abs/2411.04475v1
- Date: Thu, 07 Nov 2024 07:03:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:38:43.400004
- Title: Deep Learning Models for UAV-Assisted Bridge Inspection: A YOLO Benchmark Analysis
- Title(参考訳): UAV支援ブリッジ検査のためのディープラーニングモデル: YOLOベンチマーク解析
- Authors: Trong-Nhan Phan, Hoang-Hai Nguyen, Thi-Thu-Hien Ha, Huy-Tan Thai, Kim-Hung Le,
- Abstract要約: 最新の4種類のYOLO(YOLOv5, YOLOv6, YOLOv7, YOLOv8)に属する23のモデルをベンチマークする。
精度と処理速度の最適なバランスを提供するモデルとして, YOLOv8n, YOLOv7tiny, YOLOv6m, YOLOv6mを同定した。
その結果,UAVのモデル選択プロセスが促進され,より効率的で信頼性の高い橋梁検査が可能となった。
- 参考スコア(独自算出の注目度): 0.41942958779358674
- License:
- Abstract: Visual inspections of bridges are critical to ensure their safety and identify potential failures early. This inspection process can be rapidly and accurately automated by using unmanned aerial vehicles (UAVs) integrated with deep learning models. However, choosing an appropriate model that is lightweight enough to integrate into the UAV and fulfills the strict requirements for inference time and accuracy is challenging. Therefore, our work contributes to the advancement of this model selection process by conducting a benchmark of 23 models belonging to the four newest YOLO variants (YOLOv5, YOLOv6, YOLOv7, YOLOv8) on COCO-Bridge-2021+, a dataset for bridge details detection. Through comprehensive benchmarking, we identify YOLOv8n, YOLOv7tiny, YOLOv6m, and YOLOv6m6 as the models offering an optimal balance between accuracy and processing speed, with mAP@50 scores of 0.803, 0.837, 0.853, and 0.872, and inference times of 5.3ms, 7.5ms, 14.06ms, and 39.33ms, respectively. Our findings accelerate the model selection process for UAVs, enabling more efficient and reliable bridge inspections.
- Abstract(参考訳): 橋梁の視覚検査は、その安全性を確保し、潜在的な障害を早期に特定するために重要である。
この検査プロセスは、無人航空機(UAV)をディープラーニングモデルに統合することにより、迅速かつ正確に自動化することができる。
しかし、UAVに組み込むのに十分な軽量で、推測時間と精度の厳密な要件を満たす適切なモデルを選択することは困難である。
そこで本研究は,COCO-Bridge-2021+における最新のYOLO変種(YOLOv5, YOLOv6, YOLOv7, YOLOv8)の23モデルを対象に,COCO-Bridge-2021+におけるモデル選択プロセスの進歩に寄与する。
総合ベンチマークにより, YOLOv8n, YOLOv7tiny, YOLOv6m, YOLOv6m6を, 精度と処理速度の最適なバランスを示すモデルとし, mAP@50のスコアは0.803, 0.837, 0.853, 0.872, 推定時間は5.3ms, 7.5ms, 14.06ms, 39.33msとした。
その結果,UAVのモデル選択プロセスが促進され,より効率的で信頼性の高い橋梁検査が可能となった。
関連論文リスト
- Evaluating the Evolution of YOLO (You Only Look Once) Models: A Comprehensive Benchmark Study of YOLO11 and Its Predecessors [0.0]
本研究では,YOLOv3から最新のYOLO11まで,YOLO(You Only Look Once)アルゴリズムのベンチマーク解析を行った。
トラフィックシグネチャ(さまざまなオブジェクトサイズを持つ)、アフリカ野生生物(多彩なアスペクト比と画像当たりのオブジェクトの少なくとも1つのインスタンス)、および船と船舶(単一のクラスの小さなオブジェクトを持つ)の3つの多様なデータセットでパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-10-31T20:45:00Z) - Optimizing YOLO Architectures for Optimal Road Damage Detection and Classification: A Comparative Study from YOLOv7 to YOLOv10 [0.0]
本稿では,ディープラーニングモデルを用いた道路損傷検出のための総合ワークフローを提案する。
ハードウェアの制約を満たすため、大きな画像が収穫され、軽量モデルが利用される。
提案手法では,コーディネートアテンションレイヤを備えたカスタムYOLOv7モデルや,Tiny YOLOv7モデルなど,複数のモデルアーキテクチャを採用している。
論文 参考訳(メタデータ) (2024-10-10T22:55:12Z) - Advancing Roadway Sign Detection with YOLO Models and Transfer Learning [3.7078234026046877]
我々は、異なる照明条件下で異なる道路標識を検出し、分類するためにYOLOv5とYOLOv8を変更した。
YOLOv8モデルでは、エポックの数やバッチサイズによって、テストセットで94.6%から97.1%まで、一貫したMAP50スコアが得られる。
YOLOv5モデルは競合性能を示し、MAP50のスコアは92.4%から96.9%である。
論文 参考訳(メタデータ) (2024-06-11T20:00:52Z) - YOLOv10: Real-Time End-to-End Object Detection [68.28699631793967]
リアルタイムオブジェクト検出の分野では,YOLOが主流のパラダイムとして浮上している。
非最大抑圧(NMS)による処理後ハマーによるYOLOのエンドツーエンドデプロイメントへの依存。
YOLOの総合的効率-精度駆動型モデル設計戦略を紹介する。
論文 参考訳(メタデータ) (2024-05-23T11:44:29Z) - An Effective Two-stage Training Paradigm Detector for Small Dataset [13.227589864946477]
YOLOv8のバックボーンはマスク画像モデリング技術を用いてエンコーダとして事前訓練されている。
テスト段階では、各モデルを強化するためにテスト時間拡張(TTA)が使用され、さらに性能を高めるために重み付きボックス融合(WBF)が実装される。
良く設計された構造で、私たちのアプローチはDelftBikesテストセットで0.50から0.95までの平均精度を30.4%達成し、リーダーボードで4位になった。
論文 参考訳(メタデータ) (2023-09-11T17:43:11Z) - QD-BEV : Quantization-aware View-guided Distillation for Multi-view 3D
Object Detection [57.019527599167255]
BEV (bird-eye-view) に基づく多視点3D検出は、最近大幅に改善されている。
本稿では,BEVタスクに量子化を直接適用することで,トレーニングが不安定になり,性能劣化が許容できないことを示す。
QD-BEVにより,新しいビュー誘導蒸留(VGD)の目標が実現され,QAT(量子化対応トレーニング)の安定化が図られ,モデル性能が向上する。
論文 参考訳(メタデータ) (2023-08-21T07:06:49Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh [0.0]
バングラデシュの交通画像から高速かつ正確な車両検出を行うのに最適なYOLOアーキテクチャを見つける。
モデルは、21種類の車両に属する7390の画像を含むデータセットで訓練された。
YOLOV5xは, YOLOv3モデルとYOLOv5sモデルよりそれぞれ7~4%, 精度は12~8.5%向上した。
論文 参考訳(メタデータ) (2022-12-18T18:53:35Z) - Are Sample-Efficient NLP Models More Robust? [90.54786862811183]
サンプル効率(所定のID精度に到達するために必要なデータ量)とロバスト性(OOD評価モデルの評価方法)の関係について検討する。
高いサンプル効率は、いくつかのモデリング介入やタスクにおいて、より平均的なOODロバスト性にのみ相関するが、それ以外は相関しない。
これらの結果から,サンプル効率向上のための汎用手法は,データセットとタスクに依存した汎用的なOODロバスト性向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-10-12T17:54:59Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Workshop on Autonomous Driving at CVPR 2021: Technical Report for
Streaming Perception Challenge [57.647371468876116]
本稿では,現実的な自律運転シナリオのためのリアルタイム2次元物体検出システムについて紹介する。
私たちの検出器は、YOLOXと呼ばれる新しい設計のYOLOモデルで構築されています。
Argoverse-HDデータセットでは,検出のみのトラック/トラックで2位を7.8/6.1上回る41.0ストリーミングAPを達成した。
論文 参考訳(メタデータ) (2021-07-27T06:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。