論文の概要: Automated Parking Space Detection Using Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2106.07228v1
- Date: Mon, 14 Jun 2021 08:30:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 15:57:19.715320
- Title: Automated Parking Space Detection Using Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いた駐車空間の自動検出
- Authors: Julien Nyambal, Richard Klein
- Abstract要約: We have used computer vision technique to infer the state of the parking lot because the data collected from the University of The Witwatersrand。
本稿では,CaffeとNvidia DiGITSフレームワークを用いた畳み込みニューラルネットワーク(CNN)に基づくリアルタイム駐車空間分類手法を提案する。
- 参考スコア(独自算出の注目度): 0.30458514384586394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finding a parking space nowadays becomes an issue that is not to be
neglected, it consumes time and energy. We have used computer vision techniques
to infer the state of the parking lot given the data collected from the
University of The Witwatersrand. This paper presents an approach for a
real-time parking space classification based on Convolutional Neural Networks
(CNN) using Caffe and Nvidia DiGITS framework. The training process has been
done using DiGITS and the output is a caffemodel used for predictions to detect
vacant and occupied parking spots. The system checks a defined area whether a
parking spot (bounding boxes defined at initialization of the system) is
containing a car or not (occupied or vacant). Those bounding box coordinates
are saved from a frame of the video of the parking lot in a JSON format, to be
later used by the system for sequential prediction on each parking spot. The
system has been trained using the LeNet network with the Nesterov Accelerated
Gradient as solver and the AlexNet network with the Stochastic Gradient Descent
as solver. We were able to get an accuracy on the validation set of 99\% for
both networks. The accuracy on a foreign dataset(PKLot) returned as well 99\%.
Those are experimental results based on the training set shows how robust the
system can be when the prediction has to take place in a different parking
space.
- Abstract(参考訳): 今日駐車スペースを見つけることは、無視すべきではなく、時間とエネルギーを消費する問題になっている。
We have used computer vision technique to infer the state of the parking lot because the data collected from the University of The Witwatersrand。
本稿では,CaffeとNvidia DiGITSフレームワークを用いた畳み込みニューラルネットワーク(CNN)に基づくリアルタイム駐車空間分類手法を提案する。
トレーニングプロセスはDigiTSを使用して行われており、出力は空き地や占有する駐車場を検出するための予測に使用されるカフェモデルである。
システムは、駐車場(システムの初期化時に定義された境界ボックス)が車(占有または空き地)を含むか否かを所定領域をチェックする。
それらのバウンディングボックス座標は、駐車場のビデオのフレームからJSON形式で保存され、その後、システムによって各駐車場のシーケンシャルな予測に使用される。
このシステムは、Nesterov Accelerated GradientをソルバとしてLeNetネットワーク、Stochastic Gradient DescentをソルバとしてAlexNetネットワークを使用してトレーニングされている。
両方のネットワークで99\%の検証セットの精度を得ることができたのです。
外部データセット(pklot)の精度も99\%で返された。
これらは、トレーニングセットに基づく実験結果であり、異なる駐車スペースで予測を行う必要がある場合、システムの堅牢性を示す。
関連論文リスト
- Using Deep Neural Networks to Quantify Parking Dwell Time [1.401593872543569]
スマートシティでは、駐車スペースの最大滞在距離を定義して空間の回転性を高めることが一般的である。
本稿では,2つのディープニューラルネットワークを組み合わせることで,駐車場内の各車の滞留時間を計算する手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T19:02:46Z) - Learning 3D Perception from Others' Predictions [64.09115694891679]
本研究では,3次元物体検出装置を構築するための新たなシナリオについて検討する。
例えば、自動運転車が新しいエリアに入ると、その領域に最適化された検出器を持つ他の交通参加者から学ぶことができる。
論文 参考訳(メタデータ) (2024-10-03T16:31:28Z) - Smart Camera Parking System With Auto Parking Spot Detection [1.0512475026060208]
PakStaと呼ばれる新しい手法で駐車場の状態を自動識別する。
本手法はPakLocのオブジェクト検出器を用いて,ビデオフレーム内の駐車場の占有状況を同時に判定する。
提案手法がPKLotデータセットに与える影響は, 人的労働力の94.25%を大幅に削減する結果となった。
論文 参考訳(メタデータ) (2024-07-07T19:00:11Z) - Towards an Error-free Deep Occupancy Detector for Smart Camera Parking
System [0.26249027950824505]
我々は,OcpDetと呼ばれる物体検出装置による自律的占有度を提供する,エンドツーエンドのスマートカメラ駐車システムを提案する。
我々の検出器はまた、トレーニングや空間知識といった対照的なモジュールからの有意義な情報も提供しています。
我々は、既存のPKLotデータセット上でOcpDetをベンチマークし、従来の分類ソリューションと比較して競合する結果を得た。
論文 参考訳(メタデータ) (2022-08-17T11:02:29Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - iSDF: Real-Time Neural Signed Distance Fields for Robot Perception [64.80458128766254]
iSDFは実時間符号付き距離場再構成のための連続学習システムである。
より正確な再構築と、衝突コストと勾配のより良い近似を生成する。
論文 参考訳(メタデータ) (2022-04-05T15:48:39Z) - Smart Parking Space Detection under Hazy conditions using Convolutional
Neural Networks: A Novel Approach [0.0]
本稿では, 空き環境下での駐車スペース占有性能を向上させるデハジングネットワークの利用について検討する。
提案システムは既存のスマートパーキングシステムの一部として展開可能で、数百台のパーキングスペースを監視するために、限られた数のカメラが使用されている。
論文 参考訳(メタデータ) (2022-01-15T14:15:46Z) - Model-based Decision Making with Imagination for Autonomous Parking [50.41076449007115]
提案アルゴリズムは,駐車前に結果を予測するための想像モデル,高速探索ランダムツリー(RRT)の改良,経路平滑化モジュールの3つの部分から構成される。
われわれのアルゴリズムは、実際のキネマティックな車両モデルに基づいており、実際の自動運転車にアルゴリズムを適用するのにより適している。
アルゴリズムの有効性を評価するため,3つの異なる駐車シナリオにおいて,従来のRTとアルゴリズムを比較した。
論文 参考訳(メタデータ) (2021-08-25T18:24:34Z) - Reservoir Stack Machines [77.12475691708838]
メモリ拡張ニューラルネットワークは、情報ストレージを必要とするタスクをサポートするために、明示的なメモリを備えたリカレントニューラルネットワークを備える。
本研究では,全ての決定論的文脈自由言語を確実に認識できるモデルである貯水池スタックマシンを導入する。
以上の結果から, 貯水池スタックマシンは, 訓練データよりも長い試験シーケンスでもゼロ誤差を達成できることがわかった。
論文 参考訳(メタデータ) (2021-05-04T16:50:40Z) - ParkPredict: Motion and Intent Prediction of Vehicles in Parking Lots [65.33650222396078]
我々は、駐車場環境を開発し、人間の駐車操作のデータセットを収集する。
本稿では,多モード長短期記憶(LSTM)予測モデルと畳み込みニューラルネットワークLSTM(CNN-LSTM)を物理ベースの拡張カルマンフィルタ(EKF)ベースラインと比較する。
以上の結果から,1) 意図をよく推定できる(LSTMとCNN-LSTMモデルによる約85% のトップ1精度と100% トップ3精度),2) 運転者の意図する駐車場所の知識が駐車軌跡の予測に大きく影響すること,3) 環境の意味的表現について考察した。
論文 参考訳(メタデータ) (2020-04-21T20:46:32Z) - End-to-End Trainable One-Stage Parking Slot Detection Integrating Global
and Local Information [14.62008690460147]
本稿では,周囲ビューモニタ(AVM)画像に対する終端から終端までトレーニング可能なワンステージ駐車スロット検出手法を提案する。
提案手法は、畳み込みニューラルネットワーク(CNN)を用いて、グローバル情報(駐車場の入場者、タイプ、占有者)と局所情報(ジャンクションの位置と方向)を同時に取得する。
実験では、この手法をデータセットを用いて定量的に評価し、99.77%のリコールと精度、100%の型分類精度、および99.31%の占有率を毎秒60フレームの処理で示すことにより、従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-05T05:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。