論文の概要: Parking Spot Classification based on surround view camera system
- arxiv url: http://arxiv.org/abs/2310.12997v1
- Date: Thu, 5 Oct 2023 07:15:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-29 16:23:16.336488
- Title: Parking Spot Classification based on surround view camera system
- Title(参考訳): サラウンドビューカメラシステムに基づく駐車スポット分類
- Authors: Andy Xiao, Deep Doshi, Lihao Wang, Harsha Gorantla, Thomas Heitzmann,
and Peter Groth
- Abstract要約: 本研究では、サラウンドビューカメラシステムに基づく駐車場の分類に取り組む。
対象検出ニューラルネットワーク YOLOv4 を新しいポリゴン境界ボックスモデルで適用する。
その結果, 提案手法は, 通常の, 電気自動車, およびハンディキャップ駐車場の区別に有効であることが証明された。
- 参考スコア(独自算出の注目度): 1.1984905847118061
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surround-view fisheye cameras are commonly used for near-field sensing in
automated driving scenarios, including urban driving and auto valet parking.
Four fisheye cameras, one on each side, are sufficient to cover 360{\deg}
around the vehicle capturing the entire near-field region. Based on surround
view cameras, there has been much research on parking slot detection with main
focus on the occupancy status in recent years, but little work on whether the
free slot is compatible with the mission of the ego vehicle or not. For
instance, some spots are handicap or electric vehicles accessible only. In this
paper, we tackle parking spot classification based on the surround view camera
system. We adapt the object detection neural network YOLOv4 with a novel
polygon bounding box model that is well-suited for various shaped parking
spaces, such as slanted parking slots. To the best of our knowledge, we present
the first detailed study on parking spot detection and classification on
fisheye cameras for auto valet parking scenarios. The results prove that our
proposed classification approach is effective to distinguish between regular,
electric vehicle, and handicap parking spots.
- Abstract(参考訳): サラウンドビュー・フィッシュアイカメラは、都市運転やオートバレット駐車など、自動走行シナリオの近距離センシングに一般的に使用されている。
両側に1つずつの4つの魚眼カメラは、近距離領域全体を捉えるために360{\deg}をカバーするのに十分である。
近年,サラウンドビューカメラをベースとした駐車スロット検出に関する研究が盛んに行われているが,フリースロットがエゴ車両のミッションと互換性があるかどうかについては,ほとんど検討されていない。
例えば、一部のスポットはハンディキャップまたは電気自動車でしかアクセスできない。
本稿では,サラウンドビューカメラシステムに基づくパーキングスポット分類について検討する。
我々は,物体検出ニューラルネットワークYOLOv4を,傾斜駐車スロットなどの様々な形状の駐車スペースに適した,新しいポリゴンバウンディングボックスモデルで適応する。
我々の知る限り、自動駐車シナリオのための魚眼カメラによる駐車場所の検出と分類に関する最初の詳細な研究について述べる。
その結果, 提案手法は, 通常の, 電気自動車, およびハンディキャップ駐車場の区別に有効であることが証明された。
関連論文リスト
- Smart Camera Parking System With Auto Parking Spot Detection [1.0512475026060208]
PakStaと呼ばれる新しい手法で駐車場の状態を自動識別する。
本手法はPakLocのオブジェクト検出器を用いて,ビデオフレーム内の駐車場の占有状況を同時に判定する。
提案手法がPKLotデータセットに与える影響は, 人的労働力の94.25%を大幅に削減する結果となった。
論文 参考訳(メタデータ) (2024-07-07T19:00:11Z) - Automatic Vision-Based Parking Slot Detection and Occupancy
Classification [3.038642416291856]
パーキング誘導情報(PGI)システムは、最も近い駐車場と空き駐車場の数についてドライバーに情報を提供するために使用される。
近年、視覚ベースのソリューションは標準的なPGIシステムに代わる費用対効果の代替として現れ始めている。
本稿では,入力画像のみに基づいて自動駐車スロット検出・職業分類(APSD-OC)を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-16T07:44:34Z) - Drone navigation and license place detection for vehicle location in
indoor spaces [55.66423065924684]
この研究は、駐車中の車両の列を行き来し、ナンバープレートを検出するナノドローンに基づくソリューションを作成することを目的としている。
すべての計算はドローン上でリアルタイムで行われ、2Dマップの作成を可能にする位置と検出された画像が送信される。
論文 参考訳(メタデータ) (2023-07-19T17:46:55Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - Computer vision in automated parking systems: Design, implementation and
challenges [0.24704967483128953]
本稿では,コンピュータビジョンアルゴリズムの観点から,自動駐車システムの設計と実装について議論する。
パーキングユースケースを実現するキービジョンモジュールは、3D再構築、パーキングスロットマーキング認識、空きスペース、車両/歩行者検出です。
論文 参考訳(メタデータ) (2021-04-26T13:18:02Z) - Understanding Bird's-Eye View Semantic HD-Maps Using an Onboard
Monocular Camera [110.83289076967895]
本研究では,ワンオンボードカメラからの映像入力を用いて,セマンティック・バードズ・アイ・ビューHDマップのオンライン推定形式でのシーン理解について検討した。
実験では,HDマップの理解において,考慮すべき側面が相補的であることを実証した。
論文 参考訳(メタデータ) (2020-12-05T14:39:14Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z) - Vehicle Re-ID for Surround-view Camera System [8.919111930321206]
自動車再識別(ReID)は自律運転の認識システムにおいて重要な役割を担っている。
車両に搭載されたサラウンドビューシステムに対して、既存の完全な解決策はない。
トラッキングボックスのドリフトとターゲットの一貫性のバランスをとるための新しい品質評価機構を提案する。
論文 参考訳(メタデータ) (2020-06-30T03:25:10Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。