論文の概要: Automatic Number Plate Recognition (ANPR) with YOLOv3-CNN
- arxiv url: http://arxiv.org/abs/2211.05229v1
- Date: Mon, 7 Nov 2022 12:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:59:03.483358
- Title: Automatic Number Plate Recognition (ANPR) with YOLOv3-CNN
- Title(参考訳): YOLOv3-CNNを用いた数値プレート自動認識(ANPR)
- Authors: Rajdeep Adak, Abhishek Kumbhar, Rajas Pathare, Sagar Gowda
- Abstract要約: 環境要因の影響を判定するために,様々な画像補正方式で車両識別を行う。
交通画像のデータセットから車両を識別するために、YOLOv3オブジェクト検出モデルを訓練した。
第2のYOLOv3層は車両画像からナンバープレートを特定するために訓練された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a YOLOv3-CNN pipeline for detecting vehicles, segregation of
number plates, and local storage of final recognized characters. Vehicle
identification is performed under various image correction schemes to determine
the effect of environmental factors (angle of perception, luminosity,
motion-blurring, and multi-line custom font etc.). A YOLOv3 object detection
model was trained to identify vehicles from a dataset of traffic images. A
second YOLOv3 layer was trained to identify number plates from vehicle images.
Based upon correction schemes, individual characters were segregated and
verified against real-time data to calculate accuracy of this approach. While
characters under direct view were recognized accurately, some numberplates
affected by environmental factors had reduced levels of accuracy. We summarize
the results under various environmental factors against real-time data and
produce an overall accuracy of the pipeline model.
- Abstract(参考訳): 本稿では,車両検出,ナンバープレートの分離,最終認識文字の局所保存のためのYOLOv3-CNNパイプラインを提案する。
車両識別は、環境要因(知覚の角度、光度、動きブルリング、多行カスタムフォントなど)の影響を決定するため、様々な画像補正方式で行われる。
交通画像のデータセットから車両を識別するために、YOLOv3オブジェクト検出モデルを訓練した。
第2のYOLOv3層は車両画像からナンバープレートを特定するために訓練された。
補正方式に基づき, 個々の文字を分離し, 実時間データに対して検証し, この手法の精度を算出した。
直視下での文字は正確に認識されるが, 環境要因の影響を受けやすい数板では精度が低下した。
実時間データに対する各種環境要因に基づいて結果を要約し,パイプラインモデル全体の精度を推定する。
関連論文リスト
- Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - Learning 3D Perception from Others' Predictions [64.09115694891679]
本研究では,3次元物体検出装置を構築するための新たなシナリオについて検討する。
例えば、自動運転車が新しいエリアに入ると、その領域に最適化された検出器を持つ他の交通参加者から学ぶことができる。
論文 参考訳(メタデータ) (2024-10-03T16:31:28Z) - Cohere3D: Exploiting Temporal Coherence for Unsupervised Representation
Learning of Vision-based Autonomous Driving [73.3702076688159]
本稿では,コヒーレントなインスタンス表現を長期入力シーケンスで学習するための,新しいコントラスト学習アルゴリズムであるCohere3Dを提案する。
我々は,様々な下流認識,予測,計画タスクにおいて,事前学習したモデルを微調整することにより,アルゴリズムを評価する。
論文 参考訳(メタデータ) (2024-02-23T19:43:01Z) - An Efficient Wide-Range Pseudo-3D Vehicle Detection Using A Single
Camera [10.573423265001706]
本稿では,1台のカメラからの画像に基づく広帯域Pseudo-3D車両検出手法を提案する。
擬似3次元物体を検出するために,本モデルは特別に設計された検出ヘッドを採用する。
オブジェクトボックスとSPLを併用した共同制約損失はモデルトレーニング時に設計され、モデルの効率、安定性、予測精度が向上する。
論文 参考訳(メタデータ) (2023-09-15T12:50:09Z) - Performance Analysis of YOLO-based Architectures for Vehicle Detection
from Traffic Images in Bangladesh [0.0]
バングラデシュの交通画像から高速かつ正確な車両検出を行うのに最適なYOLOアーキテクチャを見つける。
モデルは、21種類の車両に属する7390の画像を含むデータセットで訓練された。
YOLOV5xは, YOLOv3モデルとYOLOv5sモデルよりそれぞれ7~4%, 精度は12~8.5%向上した。
論文 参考訳(メタデータ) (2022-12-18T18:53:35Z) - Sparse Semantic Map-Based Monocular Localization in Traffic Scenes Using
Learned 2D-3D Point-Line Correspondences [29.419138863851526]
クエリー画像が与えられた場合、カメラのポーズが先行マップに対応すると見積もることが目的である。
既存のアプローチは、登録問題を解決するために、機能レベルでの高密度な点記述子に大きく依存している。
本稿では,よく設計されたディープニューラルネットワークを用いて2D-3D登録を行う,スパースセマンティックマップに基づく単眼位置推定法を提案する。
論文 参考訳(メタデータ) (2022-10-10T10:29:07Z) - Active Gaze Control for Foveal Scene Exploration [124.11737060344052]
本研究では,葉型カメラを用いた人間とロボットが現場を探索する方法をエミュレートする手法を提案する。
提案手法は,同数の視線シフトに対してF1スコアを2~3ポイント増加させる。
論文 参考訳(メタデータ) (2022-08-24T14:59:28Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Weakly Supervised Training of Monocular 3D Object Detectors Using Wide
Baseline Multi-view Traffic Camera Data [19.63193201107591]
交差点における車両の7DoF予測は,道路利用者間の潜在的な衝突を評価する上で重要な課題である。
交通監視カメラ用3次元物体検出装置の微調整を弱教師付きで行う手法を開発した。
提案手法は,自動運転車のデータセット上で最上位のモノクル3Dオブジェクト検出器と同等の精度で車両の7DoFの予測精度を推定する。
論文 参考訳(メタデータ) (2021-10-21T08:26:48Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。