論文の概要: Fisheye Lens Camera based Autonomous Valet Parking System
- arxiv url: http://arxiv.org/abs/2104.13119v1
- Date: Tue, 27 Apr 2021 11:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-28 13:28:00.972689
- Title: Fisheye Lens Camera based Autonomous Valet Parking System
- Title(参考訳): 魚眼レンズカメラを用いた自律バレット駐車システム
- Authors: Young Gon Jo, Seok Hyeon Hong, Sung Soo Hwang, and Jeong Mok Ha
- Abstract要約: 本稿では,最も普及しているセンサであるカメラのみを利用した,効率的な自動駐車システムを提案する。
ピンホールカメラに比べて視野が広い魚眼カメラを使用しています。
- 参考スコア(独自算出の注目度): 3.461121828373003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes an efficient autonomous valet parking system utilizing
only cameras which are the most widely used sensor. To capture more information
instantaneously and respond rapidly to changes in the surrounding environment,
fisheye cameras which have a wider angle of view compared to pinhole cameras
are used. Accordingly, visual simultaneous localization and mapping is used to
identify the layout of the parking lot and track the location of the vehicle.
In addition, the input image frames are converted into around view monitor
images to resolve the distortion of fisheye lens because the algorithm to
detect edges are supposed to be applied to images taken with pinhole cameras.
The proposed system adopts a look up table for real time operation by
minimizing the computational complexity encountered when processing AVM images.
The detection rate of each process and the success rate of autonomous parking
were measured to evaluate performance. The experimental results confirm that
autonomous parking can be achieved using only visual sensors.
- Abstract(参考訳): 本稿では,最も普及しているセンサであるカメラのみを利用した,効率的な自動駐車システムを提案する。
周辺環境の変化に迅速に対応し、より多くの情報を瞬時に取得するために、ピンホールカメラに比べて視野の広い魚眼カメラを用いる。
これにより、駐車場のレイアウトを識別し、車両の位置を追跡するために、視覚的な同時ローカライズとマッピングが使用される。
さらに、入力画像フレームは、ピンホールカメラで撮影された画像にエッジを検出するアルゴリズムを適用するため、魚眼レンズの歪みを解決するために、周囲のビューモニタ画像に変換される。
提案システムでは,AVM画像処理時に発生する計算複雑性を最小限に抑え,リアルタイム操作のためのルックアップテーブルを採用している。
各プロセスの検出率と自律駐車の成功率を測定し,性能評価を行った。
実験の結果,視覚センサのみを用いて自律駐車が可能となった。
関連論文リスト
- Automatic Vision-Based Parking Slot Detection and Occupancy
Classification [3.038642416291856]
パーキング誘導情報(PGI)システムは、最も近い駐車場と空き駐車場の数についてドライバーに情報を提供するために使用される。
近年、視覚ベースのソリューションは標準的なPGIシステムに代わる費用対効果の代替として現れ始めている。
本稿では,入力画像のみに基づいて自動駐車スロット検出・職業分類(APSD-OC)を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-16T07:44:34Z) - Streaming Object Detection on Fisheye Cameras for Automatic Parking [0.0]
本稿では,未来を予測し,時間ラグ問題を緩和するデュアルフロー認識モジュールを備えたリアルタイム検出フレームワークを提案する。
標準バウンディングボックスは、魚眼カメラの強い半径歪みのため、魚眼カメラ画像の物体には適さない。
本稿では,物体の簡易かつ高精度な表現法であるボックスの角度を回帰する新しい周期的角度損失関数を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:30:25Z) - A Feature-based Approach for the Recognition of Image Quality
Degradation in Automotive Applications [0.0]
本稿では,自動車アプリケーションにおける画像品質の劣化を検知する特徴に基づくアルゴリズムを提案する。
異なるデータセットを用いた実験により、このアルゴリズムはカメラレンズに付着した汚れを検知し、異なるタイプの画像劣化を分類できることが示された。
論文 参考訳(メタデータ) (2023-03-13T13:40:09Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - A Quality Index Metric and Method for Online Self-Assessment of
Autonomous Vehicles Sensory Perception [164.93739293097605]
本稿では,検出品質指標(DQI)と呼ばれる新しい評価指標を提案し,カメラを用いた物体検出アルゴリズムの性能を評価する。
我々は,提案したDQI評価指標を予測するために,原画像画素とスーパーピクセルを入力として利用するスーパーピクセルベースのアテンションネットワーク(SPA-NET)を開発した。
論文 参考訳(メタデータ) (2022-03-04T22:16:50Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Multi-Camera Vehicle Counting Using Edge-AI [12.698230770450836]
本稿では、異なる視点からより広い駐車場を監視できる複数の視覚源を提案する。
提案するマルチカメラシステムは、エッジデバイス上で駐車場全体に存在する車両数を自動推定することができる。
論文 参考訳(メタデータ) (2021-06-05T08:52:20Z) - TransCamP: Graph Transformer for 6-DoF Camera Pose Estimation [77.09542018140823]
本稿では、カメラ再配置問題に対処するため、グラフトランスフォーマーバックボーン、すなわちTransCamPを用いたニューラルネットワークアプローチを提案する。
TransCamPは、画像の特徴、カメラポーズ情報、フレーム間の相対的なカメラモーションを、エンコードされたグラフ属性に効果的に融合する。
論文 参考訳(メタデータ) (2021-05-28T19:08:43Z) - FisheyeSuperPoint: Keypoint Detection and Description Network for
Fisheye Images [2.187613144178315]
キーポイントの検出と記述はコンピュータビジョンシステムで一般的に使用されるビルディングブロックである。
SuperPointは、ホモグラフィー推定における最先端の結果を達成した自己監視型キーポイント検出器およびディスクリプタです。
本稿では,魚眼画像の学習を可能にする魚眼適応パイプラインを提案する。
論文 参考訳(メタデータ) (2021-02-27T11:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。