論文の概要: Optimizing YOLOv8 for Parking Space Detection: Comparative Analysis of Custom YOLOv8 Architecture
- arxiv url: http://arxiv.org/abs/2505.17364v1
- Date: Fri, 23 May 2025 00:36:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.748572
- Title: Optimizing YOLOv8 for Parking Space Detection: Comparative Analysis of Custom YOLOv8 Architecture
- Title(参考訳): 駐車スペース検出のためのYOLOv8の最適化:カスタムYOLOv8アーキテクチャの比較分析
- Authors: Apar Pokhrel, Gia Dao,
- Abstract要約: 駐車スペース占有検知は、インテリジェントな駐車管理システムの開発において重要な要素である。
YOLOv8のような従来の物体検出アプローチは、駐車場を横断する高速かつ正確な車両検出を提供する。
YOLOv8と統合されたカスタマイズされたバックボーンアーキテクチャの総合的な比較分析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parking space occupancy detection is a critical component in the development of intelligent parking management systems. Traditional object detection approaches, such as YOLOv8, provide fast and accurate vehicle detection across parking lots but can struggle with borderline cases, such as partially visible vehicles, small vehicles (e.g., motorcycles), and poor lighting conditions. In this work, we perform a comprehensive comparative analysis of customized backbone architectures integrated with YOLOv8. Specifically, we evaluate various backbones -- ResNet-18, VGG16, EfficientNetV2, Ghost -- on the PKLot dataset in terms of detection accuracy and computational efficiency. Experimental results highlight each architecture's strengths and trade-offs, providing insight into selecting suitable models for parking occupancy.
- Abstract(参考訳): 駐車スペース占有検知は、インテリジェントな駐車管理システムの開発において重要な要素である。
YOLOv8のような従来の物体検出アプローチは、駐車場を横断する高速かつ正確な車両検出を提供するが、部分的に見える車両、小型車両(例えばオートバイ)、照明条件の悪さといった境界線事件に対処できる。
本研究では、YOLOv8と統合されたカスタマイズされたバックボーンアーキテクチャの総合的な比較分析を行う。
具体的には、PKLotデータセット上の様々なバックボーン(ResNet-18、VGG16、EfficientNetV2、Ghost)を、検出精度と計算効率の観点から評価する。
実験結果は、各建築物の強みとトレードオフを強調し、駐車場の占有に適したモデルの選択に関する洞察を与える。
関連論文リスト
- Smart Parking with Pixel-Wise ROI Selection for Vehicle Detection Using YOLOv8, YOLOv9, YOLOv10, and YOLOv11 [1.9926435972281176]
この研究は、最新のYOLOモデルを使用して、モノのインターネット、エッジコンピューティング、ディープラーニングの概念を統合する新しいアプローチを導入している。
駐車場画像中の車両をカウントする関心領域を正確に識別するために,新しい画素単位のポストプロセッシングROI選択法を提案する。
提案システムは3,484枚の画像のカスタムデータセット上で99.68%の精度を達成し、費用対効果の高いスマートパーキングソリューションを提供した。
論文 参考訳(メタデータ) (2024-12-02T21:24:31Z) - YOLO9tr: A Lightweight Model for Pavement Damage Detection Utilizing a Generalized Efficient Layer Aggregation Network and Attention Mechanism [0.0]
本稿では,舗装損傷検出のための軽量物体検出モデルYOLO9trを提案する。
YOLO9trはYOLOv9アーキテクチャに基づいており、機能抽出とアテンション機構を強化する部分的なアテンションブロックを備えている。
このモデルは、最大136FPSのフレームレートを実現し、ビデオ監視や自動検査システムなどのリアルタイムアプリケーションに適合する。
論文 参考訳(メタデータ) (2024-06-17T06:31:43Z) - SEPT: Towards Efficient Scene Representation Learning for Motion
Prediction [19.111948522155004]
本稿では,自己教師付き学習を活用し,複雑な交通シーンのための強力なモデルを開発するためのモデリングフレームワークSEPTを提案する。
実験により、SEPTはアーキテクチャ設計や機能エンジニアリングを伴わず、Argoverse 1 と Argoverse 2 のモーション予測ベンチマークで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2023-09-26T21:56:03Z) - The Impact of Different Backbone Architecture on Autonomous Vehicle
Dataset [120.08736654413637]
バックボーンアーキテクチャによって抽出された特徴の質は、全体的な検出性能に大きな影響を与える可能性がある。
本研究は,KITTI,NuScenes,BDDの3つの自律走行車データセットを評価し,対象検出タスクにおける異なるバックボーンアーキテクチャの性能を比較した。
論文 参考訳(メタデータ) (2023-09-15T17:32:15Z) - Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh [0.0]
バングラデシュの交通画像から高速かつ正確な車両検出を行うのに最適なYOLOアーキテクチャを見つける。
モデルは、21種類の車両に属する7390の画像を含むデータセットで訓練された。
YOLOV5xは, YOLOv3モデルとYOLOv5sモデルよりそれぞれ7~4%, 精度は12~8.5%向上した。
論文 参考訳(メタデータ) (2022-12-18T18:53:35Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - ParkPredict: Motion and Intent Prediction of Vehicles in Parking Lots [65.33650222396078]
我々は、駐車場環境を開発し、人間の駐車操作のデータセットを収集する。
本稿では,多モード長短期記憶(LSTM)予測モデルと畳み込みニューラルネットワークLSTM(CNN-LSTM)を物理ベースの拡張カルマンフィルタ(EKF)ベースラインと比較する。
以上の結果から,1) 意図をよく推定できる(LSTMとCNN-LSTMモデルによる約85% のトップ1精度と100% トップ3精度),2) 運転者の意図する駐車場所の知識が駐車軌跡の予測に大きく影響すること,3) 環境の意味的表現について考察した。
論文 参考訳(メタデータ) (2020-04-21T20:46:32Z) - VehicleNet: Learning Robust Visual Representation for Vehicle
Re-identification [116.1587709521173]
我々は,4つのパブリックな車両データセットを活用することで,大規模車両データセット(VabyNet)を構築することを提案する。
VehicleNetからより堅牢な視覚表現を学習するための、シンプルで効果的な2段階プログレッシブアプローチを設計する。
AICity Challengeのプライベートテストセットにおいて,最先端の精度86.07%mAPを実現した。
論文 参考訳(メタデータ) (2020-04-14T05:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。