論文の概要: Deep Single Models vs. Ensembles: Insights for a Fast Deployment of
Parking Monitoring Systems
- arxiv url: http://arxiv.org/abs/2309.16495v1
- Date: Thu, 28 Sep 2023 14:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 13:58:07.588559
- Title: Deep Single Models vs. Ensembles: Insights for a Fast Deployment of
Parking Monitoring Systems
- Title(参考訳): deep single models vs. ensembles: 駐車監視システムの迅速な展開のための洞察
- Authors: Andre Gustavo Hochuli, Jean Paul Barddal, Gillian Cezar Palhano,
Leonardo Matheus Mendes, Paulo Ricardo Lisboa de Almeida
- Abstract要約: 多くのアプローチでは大量のデータの収集とラベル付けを行うため、インテリジェントな駐車監視は依然として課題である。
本研究の目的は,公用ラベル付き駐車場画像を用いて訓練されたグローバルなフレームワーク構築の課題を明らかにすることである。
その結果、多様なデータセットでトレーニングされたモデルは、目標駐車場におけるデータアノテーションやモデルトレーニングの負担を伴わずに95%の精度を達成できることがわかった。
- 参考スコア(独自算出の注目度): 3.00363876980149
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Searching for available parking spots in high-density urban centers is a
stressful task for drivers that can be mitigated by systems that know in
advance the nearest parking space available.
To this end, image-based systems offer cost advantages over other
sensor-based alternatives (e.g., ultrasonic sensors), requiring less physical
infrastructure for installation and maintenance.
Despite recent deep learning advances, deploying intelligent parking
monitoring is still a challenge since most approaches involve collecting and
labeling large amounts of data, which is laborious and time-consuming. Our
study aims to uncover the challenges in creating a global framework, trained
using publicly available labeled parking lot images, that performs accurately
across diverse scenarios, enabling the parking space monitoring as a
ready-to-use system to deploy in a new environment. Through exhaustive
experiments involving different datasets and deep learning architectures,
including fusion strategies and ensemble methods, we found that models trained
on diverse datasets can achieve 95\% accuracy without the burden of data
annotation and model training on the target parking lot
- Abstract(参考訳): 高密度の都市部で利用可能な駐車場を探すことは、最寄りの駐車スペースを事前に知っているシステムによって軽減されるドライバーにとってストレスの多い作業である。
この目的のために、画像ベースのシステムは、他のセンサーベースの代替品(例えば超音波センサー)よりもコスト上の優位性を提供し、設置やメンテナンスのための物理的なインフラを少なくする。
最近のディープラーニングの進歩にもかかわらず、インテリジェントな駐車監視の展開は依然として困難である。
本研究では,多種多様なシナリオにまたがって,利用可能なラベル付き駐車場イメージを用いてトレーニングを行い,新たな環境に展開可能な駐車スペース監視を実現する,グローバルフレームワーク構築の課題を明らかにすることを目的とした。
融合戦略やアンサンブル手法を含む、さまざまなデータセットとディープラーニングアーキテクチャを含む徹底した実験を通じて、多様なデータセットでトレーニングされたモデルは、ターゲットパーキングロットにおけるデータアノテーションやモデルトレーニングの負担なしに95%の精度を達成できることがわかった。
関連論文リスト
- Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Self-Supervised Representation Learning from Temporal Ordering of
Automated Driving Sequences [49.91741677556553]
本研究では、認識タスクのための地域レベルの特徴表現を事前学習するための時間順述前文タスクであるTempOを提案する。
我々は各フレームを、オブジェクト検出やトラッキングシステムにとって自然な表現である、未順序な特徴ベクトルのセットで埋め込む。
BDD100K、nu Images、MOT17データセットの大規模な評価は、私たちのTempO事前学習アプローチがシングルフレームの自己教師型学習方法よりも優れていることを示している。
論文 参考訳(メタデータ) (2023-02-17T18:18:27Z) - Uncertainty-aware Perception Models for Off-road Autonomous Unmanned
Ground Vehicles [6.2574402913714575]
オフロード自律無人地上車両(UGV)は、遠隔地で重要な物資を供給するために軍用および商業用途のために開発されている。
現在のデータセットは、季節、場所、セマンティッククラス、および日時における多様性の欠如に対する、オフロード自律ナビゲーションのための知覚モデルのトレーニングに使用されています。
本研究では,複数のデータセットを組み合わせてセグメンテーションに基づく環境認識モデルを学習する方法について検討する。
我々は,不確実性を捉えるためにモデルをトレーニングすることで,モデルの性能を著しく向上させることができることを示した。
論文 参考訳(メタデータ) (2022-09-22T15:59:33Z) - Towards an Error-free Deep Occupancy Detector for Smart Camera Parking
System [0.26249027950824505]
我々は,OcpDetと呼ばれる物体検出装置による自律的占有度を提供する,エンドツーエンドのスマートカメラ駐車システムを提案する。
我々の検出器はまた、トレーニングや空間知識といった対照的なモジュールからの有意義な情報も提供しています。
我々は、既存のPKLotデータセット上でOcpDetをベンチマークし、従来の分類ソリューションと比較して競合する結果を得た。
論文 参考訳(メタデータ) (2022-08-17T11:02:29Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - Scalable Vehicle Re-Identification via Self-Supervision [66.2562538902156]
自動車再同定は、都市規模の車両分析システムにおいて重要な要素の1つである。
車両再設計のための最先端のソリューションの多くは、既存のre-idベンチマークの精度向上に重点を置いており、計算の複雑さを無視することが多い。
推論時間に1つのネットワークのみを使用する自己教師型学習によって、シンプルで効果的なハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2022-05-16T12:14:42Z) - A Systematic Review on Computer Vision-Based Parking Lot Management
Applied on Public Datasets [5.379463265037841]
我々は、駐車場管理のためのコンピュータビジョンベースの手法をテストするために構築された、公開可能な堅牢な画像データセットを調査し、比較した。
文献レビューは、さらなる研究を必要とする関連するギャップを特定した。
論文 参考訳(メタデータ) (2022-03-12T15:35:29Z) - Smart Parking Space Detection under Hazy conditions using Convolutional
Neural Networks: A Novel Approach [0.0]
本稿では, 空き環境下での駐車スペース占有性能を向上させるデハジングネットワークの利用について検討する。
提案システムは既存のスマートパーキングシステムの一部として展開可能で、数百台のパーキングスペースを監視するために、限られた数のカメラが使用されている。
論文 参考訳(メタデータ) (2022-01-15T14:15:46Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - FADACS: A Few-shot Adversarial Domain Adaptation Architecture for
Context-Aware Parking Availability Sensing [5.160087162892865]
本研究では,駐車場データの不十分な地域での駐車状況を予測するために,駐車状況検知のためのエンドツーエンドの移動学習フレームワークを設計する。
このフレームワークは2つの課題を克服する。1) 既存のデータ駆動モデルに十分なデータを提供できない実世界のケースが多く、2) センサデータと異種コンテキスト情報をマージすることは困難である。
論文 参考訳(メタデータ) (2020-07-13T08:25:26Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。