論文の概要: A Computer Vision Enabled damage detection model with improved YOLOv5
based on Transformer Prediction Head
- arxiv url: http://arxiv.org/abs/2303.04275v1
- Date: Tue, 7 Mar 2023 22:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:35:14.494982
- Title: A Computer Vision Enabled damage detection model with improved YOLOv5
based on Transformer Prediction Head
- Title(参考訳): 変圧器予測ヘッドに基づく改良型YOLOv5によるコンピュータビジョンによる損傷検出モデル
- Authors: Arunabha M. Roy and Jayabrata Bhaduri
- Abstract要約: 現在の最先端ディープラーニング(DL)に基づく損傷検出モデルは、複雑でノイズの多い環境では優れた特徴抽出能力を欠いていることが多い。
DenseSPH-YOLOv5は、DenseNetブロックをバックボーンに統合したリアルタイムDLベースの高性能損傷検出モデルである。
DenseSPH-YOLOv5は平均平均精度(mAP)が85.25%、F1スコアが81.18%、精度(P)が89.51%である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective:Computer vision-based up-to-date accurate damage classification and
localization are of decisive importance for infrastructure monitoring, safety,
and the serviceability of civil infrastructure. Current state-of-the-art deep
learning (DL)-based damage detection models, however, often lack superior
feature extraction capability in complex and noisy environments, limiting the
development of accurate and reliable object distinction. Method: To this end,
we present DenseSPH-YOLOv5, a real-time DL-based high-performance damage
detection model where DenseNet blocks have been integrated with the backbone to
improve in preserving and reusing critical feature information. Additionally,
convolutional block attention modules (CBAM) have been implemented to improve
attention performance mechanisms for strong and discriminating deep spatial
feature extraction that results in superior detection under various challenging
environments. Moreover, additional feature fusion layers and a Swin-Transformer
Prediction Head (SPH) have been added leveraging advanced self-attention
mechanism for more efficient detection of multiscale object sizes and
simultaneously reducing the computational complexity. Results: Evaluating the
model performance in large-scale Road Damage Dataset (RDD-2018), at a detection
rate of 62.4 FPS, DenseSPH-YOLOv5 obtains a mean average precision (mAP) value
of 85.25 %, F1-score of 81.18 %, and precision (P) value of 89.51 %
outperforming current state-of-the-art models. Significance: The present
research provides an effective and efficient damage localization model
addressing the shortcoming of existing DL-based damage detection models by
providing highly accurate localized bounding box prediction. Current work
constitutes a step towards an accurate and robust automated damage detection
system in real-time in-field applications.
- Abstract(参考訳): 目的:コンピュータビジョンに基づく最新のダメージ分類とローカライゼーションは、インフラ監視、安全、および土木インフラのサービス性において決定的な重要性を持つ。
しかし、現在の最先端のディープラーニング(dl)ベースの損傷検出モデルでは、複雑でノイズの多い環境では優れた特徴抽出能力が欠如しており、正確で信頼性の高いオブジェクト識別の開発が制限されている。
方法: DenseSPH-YOLOv5は,DenseNetブロックをバックボーンに統合し,重要な特徴情報の保存・再利用を改善するリアルタイムDLベース高速損傷検出モデルである。
さらに、cbam(convolutional block attention module)が実装され、様々な困難な環境下で優れた検出を可能にする深層空間特徴抽出のための注意性能機構が向上している。
さらに、マルチスケールオブジェクトサイズをより効率的に検出し、計算複雑性を同時に低減するために、高度な自己アテンション機構を活用する機能融合層とSwin-Transformer Prediction Head (SPH)が追加された。
結果: 大規模道路被害データセット(RDD-2018)におけるモデル性能を62.4 FPSで評価すると, DenseSPH-YOLOv5は平均平均精度(mAP)が85.25 %, F1スコアが81.18 %, 精度(P)が89.51 %である。
意義: 本研究は, 高精度な局所的境界ボックス予測を提供することにより, 既存のDLベース損傷検出モデルの欠点に対処する, 効果的かつ効率的な損傷局所化モデルを提供する。
現在の作業は、リアルタイムフィールドアプリケーションにおける正確で堅牢な自動損傷検出システムに向けての一歩となる。
関連論文リスト
- Mitigating Reward Hacking via Information-Theoretic Reward Modeling [70.26019860948114]
本稿では,報酬モデリングのための汎用的で堅牢なフレームワークであるInfoRMを提案する。
我々は,潜伏空間における過最適化と外れ値の相関を同定し,報酬過最適化を検出するための有望なツールとしてInfoRMを確立した。
論文 参考訳(メタデータ) (2024-02-14T17:49:07Z) - Machine learning-based network intrusion detection for big and
imbalanced data using oversampling, stacking feature embedding and feature
extraction [6.374540518226326]
侵入検知システム(IDS)は、悪意あるアクターや活動を検出することによって相互接続ネットワークを保護する上で重要な役割を果たす。
本稿では,データ不均衡にRandom Oversampling (RO) を用いる新しいMLベースのネットワーク侵入検出モデルと,次元削減のためのStacking Feature Embedding (PCA)を提案する。
CIC-IDS 2017データセットを使用すると、DT、RF、ETモデルは99.99%の精度に達し、DTとRFモデルはCIC-IDS 2018データセットで99.94%の精度が得られる。
論文 参考訳(メタデータ) (2024-01-22T05:49:41Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Efficient Apple Maturity and Damage Assessment: A Lightweight Detection
Model with GAN and Attention Mechanism [7.742643088073472]
本研究では,軽量畳み込みニューラルネットワーク(CNN)とGAN(Generative Adversarial Network)に基づく手法を提案する。
リンゴ熟度グレーディング検出では, それぞれ95.6%, 93.8%, 95.0%, 56.5の精度, リコール, 精度, FPSが得られた。
リンゴの損傷レベル検出では、提案モデルはそれぞれ95.3%、93.7%、94.5%の精度、リコール、mAPに達する。
論文 参考訳(メタデータ) (2023-10-13T18:22:30Z) - FDINet: Protecting against DNN Model Extraction via Feature Distortion
Index [31.094958502555503]
FDINETは、ディープニューラルネットワーク(DNN)モデルの特徴分布を活用する新しい防御メカニズムである。
FDI類似性を利用して、分散抽出攻撃から衝突する敵を識別する。
FDINETは、91%を超える精度で衝突する敵を識別する能力を示している。
論文 参考訳(メタデータ) (2023-06-20T07:14:37Z) - Conservative Prediction via Data-Driven Confidence Minimization [66.35245313125934]
機械学習モデルのエラーは、特に医療のような安全クリティカルな領域では、コストがかかる。
本稿では、不確実性データセットに対する信頼性を最小化するデータ駆動型信頼性最小化(DCM)を提案する。
実験の結果、DCMは8つのID-OODデータセットペアに対して、最先端のOOD検出方法よりも一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - A fast accurate fine-grain object detection model based on YOLOv4 deep
neural network [0.0]
商業農場や果樹園における植物病の早期発見と予防は、精密農業技術の重要な特徴である。
本稿では,植物病の検出におけるいくつかの障害に対処する高性能なリアルタイム微粒物検出フレームワークを提案する。
提案するモデルは、You Only Look Once (YOLOv4)アルゴリズムの改良版に基づいて構築されている。
論文 参考訳(メタデータ) (2021-10-30T17:56:13Z) - Improving Variational Autoencoder based Out-of-Distribution Detection
for Embedded Real-time Applications [2.9327503320877457]
アウト・オブ・ディストリビューション(OD)検出は、リアルタイムにアウト・オブ・ディストリビューションを検出するという課題に対処する新しいアプローチである。
本稿では,自律走行エージェントの周囲の有害な動きを頑健に検出する方法について述べる。
提案手法は,OoD因子の検出能力を一意に改善し,最先端手法よりも42%向上した。
また,本モデルでは,実験した実世界およびシミュレーション駆動データに対して,最先端技術よりも97%の精度でほぼ完璧に一般化した。
論文 参考訳(メタデータ) (2021-07-25T07:52:53Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z) - Assessing out-of-domain generalization for robust building damage
detection [78.6363825307044]
建築損傷検出は、衛星画像にコンピュータビジョン技術を適用することで自動化することができる。
モデルは、トレーニングで利用可能な災害画像と、新しいイベントの画像の間の分散の変化に対して堅牢でなければならない。
今後はOOD体制に重点を置くべきだと我々は主張する。
論文 参考訳(メタデータ) (2020-11-20T10:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。