論文の概要: Security Fence Inspection at Airports Using Object Detection
- arxiv url: http://arxiv.org/abs/2311.12064v1
- Date: Sat, 18 Nov 2023 21:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 03:36:38.990421
- Title: Security Fence Inspection at Airports Using Object Detection
- Title(参考訳): 物体検出による空港のセキュリティフェンス検査
- Authors: Nils Friederich, Andreas Specker, J\"urgen Beyerer
- Abstract要約: 空港のセキュリティフェンスは一般的に使用されるが、損傷を検出するには定期的な検査が必要である。
目的は、自律ロボットの助けを借りて、フェンスの損傷を自動的に検査することである。
本研究では,フェンス検査の課題に対処し,様々な種類の損傷を局所化するための物体検出手法について検討する。
- 参考スコア(独自算出の注目度): 4.373803477995854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To ensure the security of airports, it is essential to protect the airside
from unauthorized access. For this purpose, security fences are commonly used,
but they require regular inspection to detect damages. However, due to the
growing shortage of human specialists and the large manual effort, there is the
need for automated methods. The aim is to automatically inspect the fence for
damage with the help of an autonomous robot. In this work, we explore object
detection methods to address the fence inspection task and localize various
types of damages. In addition to evaluating four State-of-the-Art (SOTA) object
detection models, we analyze the impact of several design criteria, aiming at
adapting to the task-specific challenges. This includes contrast adjustment,
optimization of hyperparameters, and utilization of modern backbones. The
experimental results indicate that our optimized You Only Look Once v5 (YOLOv5)
model achieves the highest accuracy of the four methods with an increase of
6.9% points in Average Precision (AP) compared to the baseline. Moreover, we
show the real-time capability of the model. The trained models are published on
GitHub: https://github.com/N-Friederich/airport_fence_inspection.
- Abstract(参考訳): 空港の安全を確保するためには、空港を許可されていないアクセスから守ることが不可欠である。
この目的のために、セキュリティフェンスは一般的に使用されるが、損傷を検出するには定期的な検査が必要である。
しかし,人的専門家の不足や手作業の大規模化などにより,自動化手法の必要性が高まっている。
目的は、自律ロボットの助けを借りてフェンスの損傷を自動的に検査することである。
本研究では,フェンス検査作業に対処し,各種損傷の局所化を行う対象検出手法について検討する。
4つのSOTAオブジェクト検出モデルの評価に加えて,タスク固有の課題への適応を目的とした,いくつかの設計基準の影響を分析した。
これにはコントラスト調整、ハイパーパラメータの最適化、現代のバックボーンの利用が含まれる。
実験の結果,最適化されたYou Only Look Once v5 (YOLOv5) モデルでは,平均精度(AP)が6.9%向上し,4つの手法の最高精度が得られた。
さらに,モデルのリアルタイム機能を示す。
トレーニングされたモデルはGitHubで公開されている。
関連論文リスト
- Model Agnostic Defense against Adversarial Patch Attacks on Object Detection in Unmanned Aerial Vehicles [0.27309692684728615]
無人航空機(UAV)のキーコンポーネントとなる物体検出
物体探知機に対する 敵のパッチ攻撃は 上流のタスクのパフォーマンスを 著しく損なう可能性がある
本稿では,敵パッチ攻撃の脅威に対するモデル非依存防衛機構を提案する。
論文 参考訳(メタデータ) (2024-05-29T15:19:07Z) - From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - Innovative Horizons in Aerial Imagery: LSKNet Meets DiffusionDet for
Advanced Object Detection [55.2480439325792]
本稿では,LSKNetのバックボーンをDiffusionDetヘッドに統合したオブジェクト検出モデルの詳細な評価を行う。
提案手法は平均精度(MAP)を約45.7%向上させる。
この進歩は、提案された修正の有効性を強調し、航空画像解析の新しいベンチマークを設定する。
論文 参考訳(メタデータ) (2023-11-21T19:49:13Z) - Towards Building Self-Aware Object Detectors via Reliable Uncertainty
Quantification and Calibration [17.461451218469062]
本稿では,自己認識オブジェクト検出(SAOD)タスクを紹介する。
SAODタスクは、自律運転のような安全クリティカルな環境でオブジェクト検出器が直面する課題を尊重し、遵守する。
我々は、多数のオブジェクト検出器をテストするために、新しいメトリクスと大規模なテストデータセットを導入したフレームワークを広範囲に使用しています。
論文 参考訳(メタデータ) (2023-07-03T11:16:39Z) - Fast and Accurate Object Detection on Asymmetrical Receptive Field [0.0]
本稿では,物体検出精度を受容場の変化の観点から改善する手法を提案する。
YOLOv5の頭部の構造は、非対称なプール層を付加することによって改変される。
本稿では, 従来の YOLOv5 モデルと比較し, いくつかのパラメータから解析する。
論文 参考訳(メタデータ) (2023-03-15T23:59:18Z) - Cut and Learn for Unsupervised Object Detection and Instance
Segmentation [65.43627672225624]
Cut-and-LeaRn(CutLER)は、教師なしオブジェクトの検出とセグメンテーションモデルをトレーニングするためのシンプルなアプローチである。
CutLERはゼロショット非監視検出器であり、11のベンチマークでAP50を2.7倍以上改善している。
論文 参考訳(メタデータ) (2023-01-26T18:57:13Z) - Analysis and Adaptation of YOLOv4 for Object Detection in Aerial Images [0.0]
本研究は,空中画像中の物体とその位置を予測するためのYOLOv4フレームワークの適応性を示す。
トレーニングされたモデルは平均的な平均精度(mAP)が45.64%となり、推論速度はTesla K80 GPUで8.7FPSに達した。
いくつかの現代の空中物体検出器との比較研究により、YOLOv4はより優れた性能を示し、航空プラットフォームに組み込むのにより適した検出アルゴリズムが示唆された。
論文 参考訳(メタデータ) (2022-03-18T23:51:09Z) - ObjectSeeker: Certifiably Robust Object Detection against Patch Hiding
Attacks via Patch-agnostic Masking [95.6347501381882]
物体探知機は物理的世界のパッチ隠蔽攻撃に弱いことが判明した。
我々は,堅牢なオブジェクト検出器を構築するためのフレームワークとしてObjectSeekerを提案する。
論文 参考訳(メタデータ) (2022-02-03T19:34:25Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Auditing AI models for Verified Deployment under Semantic Specifications [65.12401653917838]
AuditAIは、解釈可能な形式検証とスケーラビリティのギャップを埋める。
AuditAIは、画素空間の摂動のみを用いた検証の限界に対処しながら、検証と認定トレーニングのための制御されたバリエーションを得られるかを示す。
論文 参考訳(メタデータ) (2021-09-25T22:53:24Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。