論文の概要: Surround-View Fisheye Optics in Computer Vision and Simulation: Survey
and Challenges
- arxiv url: http://arxiv.org/abs/2402.12041v2
- Date: Wed, 21 Feb 2024 14:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 11:53:45.644533
- Title: Surround-View Fisheye Optics in Computer Vision and Simulation: Survey
and Challenges
- Title(参考訳): コンピュータビジョンとシミュレーションにおけるサラウンドビュー魚眼光学:調査と課題
- Authors: Daniel Jakab, Brian Michael Deegan, Sushil Sharma, Eoin Martino Grua,
Jonathan Horgan, Enda Ward, Pepijn Van De Ven, Anthony Scanlan, Ciar\'an
Eising
- Abstract要約: 自動車産業は、道路の安全性を高め、自動運転機能を提供するために最先端のコンピュータビジョンを適用している。
サラウンドビューカメラにおける重要な課題の1つは、魚眼カメラの強い光収差である。
車両自動化における安全クリティカルなシナリオをテストするには、包括的なデータセットが必要である。
- 参考スコア(独自算出の注目度): 1.2673797373220104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we provide a survey on automotive surround-view fisheye
optics, with an emphasis on the impact of optical artifacts on computer vision
tasks in autonomous driving and ADAS. The automotive industry has advanced in
applying state-of-the-art computer vision to enhance road safety and provide
automated driving functionality. When using camera systems on vehicles, there
is a particular need for a wide field of view to capture the entire vehicle's
surroundings, in areas such as low-speed maneuvering, automated parking, and
cocoon sensing. However, one crucial challenge in surround-view cameras is the
strong optical aberrations of the fisheye camera, which is an area that has
received little attention in the literature. Additionally, a comprehensive
dataset is needed for testing safety-critical scenarios in vehicle automation.
The industry has turned to simulation as a cost-effective strategy for creating
synthetic datasets with surround-view camera imagery. We examine different
simulation methods (such as model-driven and data-driven simulations) and
discuss the simulators' ability (or lack thereof) to model real-world optical
performance. Overall, this paper highlights the optical aberrations in
automotive fisheye datasets, and the limitations of optical reality in
simulated fisheye datasets, with a focus on computer vision in surround-view
optical systems.
- Abstract(参考訳): 本稿では,自動走行およびADASにおけるコンピュータビジョンタスクにおける光学工芸品の影響に着目し,自動車のサラウンドビュー魚眼光学に関する調査を行う。
自動車産業は最新のコンピュータビジョンを適用し、道路の安全性を高め、自動運転機能を提供する。
車両のカメラシステムを使用する場合、低速操縦、自動駐車、コクーンセンシングなどの領域において、車両の周囲全体を把握するための広い視野が必要である。
しかし、サラウンドビューカメラにおける重要な課題は、文献にほとんど注目されていないフィッシュアイカメラの光学的収差である。
さらに、車両自動化における安全クリティカルなシナリオをテストするために、包括的なデータセットが必要である。
業界は、サラウンドビューカメラ画像を用いた合成データセットを作成するための費用対効果の戦略としてシミュレーションに転換した。
シミュレーション手法(モデル駆動・データ駆動シミュレーションなど)について検討し,実世界の光学性能をモデル化するシミュレータの能力(あるいはその欠如)について考察する。
概して,本論文では,車載魚眼データセットの光学収差と模擬魚眼データセットの光学的現実感の限界に注目し,サラウンドビュー光学系におけるコンピュータビジョンに着目した。
関連論文リスト
- Measuring Natural Scenes SFR of Automotive Fisheye Cameras [0.30786914102688595]
MTF(Modulation Transfer Function)は、自動車領域で一般的に用いられる画像品質の指標である。
広視野視野カメラ(FOV)は、特に低速車両自動化アプリケーションで人気が高まっている。
本稿では,広視野カメラに適応する自然シーン空間周波数応答(NS-SFR)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-10T15:59:59Z) - Windscreen Optical Quality for AI Algorithms: Refractive Power and MTF
not Sufficient [74.2843502619298]
自動車の大量生産プロセスは、ウインドスクリーンの光学的品質を意味のある方法で特徴づける計測システムを必要とする。
本稿では, 産業で確立された主測度である屈折力が, ウインドスクリーンの関連する光学特性を捉えることができないことを実証する。
本稿では,ウインドスクリーンの光学的品質を決定するための新しい概念を提案し,この光学的品質とAIアルゴリズムの性能を関連付けるためにシミュレーションを利用する。
論文 参考訳(メタデータ) (2023-05-23T20:41:04Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Optical Flow for Autonomous Driving: Applications, Challenges and
Improvements [0.9023847175654602]
学習に基づく光フローアルゴリズムを改善するためのトレーニング戦略を提案し,評価する。
合成データを訓練しながら、このモデルは現実世界の魚眼データに一般化する強力な能力を示す。
低光域における既存手法の性能を大幅に向上させる,新しい汎用的な半教師付きフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-11T12:01:42Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - VISTA 2.0: An Open, Data-driven Simulator for Multimodal Sensing and
Policy Learning for Autonomous Vehicles [131.2240621036954]
VISTAはオープンソースのデータ駆動シミュレータで、複数のタイプのセンサーを自律走行車に組み込む。
高忠実で実世界のデータセットを使用して、VISTAはRGBカメラ、3D LiDAR、イベントベースのカメラを表現し、シミュレートする。
センサタイプ毎に知覚制御ポリシーをトレーニングし,テストする能力を示し,フルスケールの自律走行車への展開を通じて,このアプローチのパワーを示す。
論文 参考訳(メタデータ) (2021-11-23T18:58:10Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Worsening Perception: Real-time Degradation of Autonomous Vehicle
Perception Performance for Simulation of Adverse Weather Conditions [47.529411576737644]
本研究では,自律走行車両における簡易かつ軽量な画像強調システムの利用の可能性を検討する。
最小限の調整で、プロトタイプシステムは、カメラレンズ上の水滴と退色光条件の両方の効果を複製することができます。
論文 参考訳(メタデータ) (2021-03-03T23:49:02Z) - SurfelGAN: Synthesizing Realistic Sensor Data for Autonomous Driving [27.948417322786575]
本稿では,現実的なシナリオセンサデータを生成するための,シンプルで効果的な手法を提案する。
われわれのアプローチでは、テクスチャマップされたサーフを使用して、初期車両のパスやセットのパスからシーンを効率的に再構築する。
次に、SurfelGANネットワークを利用して、現実的なカメライメージを再構築し、自動運転車の新たな位置と方向を推定する。
論文 参考訳(メタデータ) (2020-05-08T04:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。