論文の概要: Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges
- arxiv url: http://arxiv.org/abs/2205.13281v1
- Date: Thu, 26 May 2022 11:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 14:32:27.259590
- Title: Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges
- Title(参考訳): 自動走行用魚眼カメラの概観:概観, 調査, 課題
- Authors: Varun Ravi Kumar, Ciaran Eising, Christian Witt, and Senthil Yogamani
- Abstract要約: 車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
- 参考スコア(独自算出の注目度): 1.4452405977630436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Surround-view fisheye cameras are commonly used for near-field sensing in
automated driving. Four fisheye cameras on four sides of the vehicle are
sufficient to cover 360{\deg} around the vehicle capturing the entire
near-field region. Some primary use cases are automated parking, traffic jam
assist, and urban driving. There are limited datasets and very little work on
near-field perception tasks as the main focus in automotive perception is on
far-field perception. In contrast to far-field, surround-view perception poses
additional challenges due to high precision object detection requirements of
10cm and partial visibility of objects. Due to the large radial distortion of
fisheye cameras, standard algorithms can not be extended easily to the
surround-view use case. Thus we are motivated to provide a self-contained
reference for automotive fisheye camera perception for researchers and
practitioners. Firstly, we provide a unified and taxonomic treatment of
commonly used fisheye camera models. Secondly, we discuss various perception
tasks and existing literature. Finally, we discuss the challenges and future
direction.
- Abstract(参考訳): サラウンドビュー魚眼カメラは、自動走行の近距離センシングに一般的に使用される。
車両の4面に4つの魚眼カメラが装備されており、周辺地域全体を取り囲む360{\deg}をカバーできる。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
限られたデータセットがあり、自動車の知覚に焦点をあてているのは遠距離場知覚である。
遠距離視野とは対照的に、サラウンドビューの知覚は、10cmの高精度物体検出要件と物体の部分視認性により、さらなる課題をもたらす。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
そこで我々は,研究者や実践者を対象に,自動魚眼カメラ認識のための自己完結型基準を提供する。
まず,一般的な魚眼カメラモデルの統一的分類学的処理を行う。
次に,様々な認識課題と既存文献について論じる。
最後に,課題と今後の方向性について論じる。
関連論文リスト
- FisheyeDetNet: 360° Surround view Fisheye Camera based Object Detection System for Autonomous Driving [4.972459365804512]
物体検出は自律走行における成熟した問題であり、歩行者検出は最初に展開されたアルゴリズムの1つである。
標準的なバウンディングボックスの表現は、特に周辺部において大きな放射歪みのため、魚眼カメラでは失敗する。
我々は、回転する有界箱、楕円、ポリゴンを極弧/角表現として設計し、これらの表現を分析するためにインスタンスセグメンテーションmIOUメートル法を定義する。
提案したモデルであるPhiteeyeDetNetは他より優れており、自動走行用Valeo fisheye around-viewデータセットのmAPスコアは49.5 %である。
論文 参考訳(メタデータ) (2024-04-20T18:50:57Z) - The 8th AI City Challenge [57.25825945041515]
2024年版では5トラックが収録され、47か国と地域の726チームから前例のない関心を集めた。
このチャレンジでは、2つのリーダーボードを使ってメソッドを展示し、参加者は新しいベンチマークを設定した。
論文 参考訳(メタデータ) (2024-04-15T03:12:17Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Parking Spot Classification based on surround view camera system [1.1984905847118061]
本研究では、サラウンドビューカメラシステムに基づく駐車場の分類に取り組む。
対象検出ニューラルネットワーク YOLOv4 を新しいポリゴン境界ボックスモデルで適用する。
その結果, 提案手法は, 通常の, 電気自動車, およびハンディキャップ駐車場の区別に有効であることが証明された。
論文 参考訳(メタデータ) (2023-10-05T07:15:04Z) - FisheyePP4AV: A privacy-preserving method for autonomous vehicles on
fisheye camera images [1.534667887016089]
世界中の多くの地域では、公道で収集された大量のデータを自動運転に利用している。
実際の道路走行シナリオにおいて、歩行者の顔や付近の自動車ナンバープレートを検出し、匿名化するためには、効果的な解決策が緊急に必要である。
この研究では、私たちはプライバシー保護に特に注意を払っていますが、無人走行車によって撮影された魚眼カメラ写真のいくつかの法律に固執しています。
論文 参考訳(メタデータ) (2023-09-07T15:51:31Z) - Streaming Object Detection on Fisheye Cameras for Automatic Parking [0.0]
本稿では,未来を予測し,時間ラグ問題を緩和するデュアルフロー認識モジュールを備えたリアルタイム検出フレームワークを提案する。
標準バウンディングボックスは、魚眼カメラの強い半径歪みのため、魚眼カメラ画像の物体には適さない。
本稿では,物体の簡易かつ高精度な表現法であるボックスの角度を回帰する新しい周期的角度損失関数を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:30:25Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。