論文の概要: Near-field Perception for Low-Speed Vehicle Automation using
Surround-view Fisheye Cameras
- arxiv url: http://arxiv.org/abs/2103.17001v4
- Date: Tue, 6 Jun 2023 15:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 00:23:02.546369
- Title: Near-field Perception for Low-Speed Vehicle Automation using
Surround-view Fisheye Cameras
- Title(参考訳): 魚眼カメラを用いた低速車両自動化のための近接場認識
- Authors: Ciaran Eising, Jonathan Horgan and Senthil Yogamani
- Abstract要約: このようなビジョンシステムを詳細に調査し、認識、再構成、再局在化、再編成という4つのモジュールコンポーネントに分解可能なアーキテクチャの文脈で調査をセットアップする。
本稿では,各コンポーネントがどのように特定の側面を達成しているかを論じ,低速自動化のための完全な認識システムを構築するために相乗化できるという位置論を提供する。
- 参考スコア(独自算出の注目度): 0.2274919456047379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cameras are the primary sensor in automated driving systems. They provide
high information density and are optimal for detecting road infrastructure cues
laid out for human vision. Surround-view camera systems typically comprise of
four fisheye cameras with 190{\deg}+ field of view covering the entire
360{\deg} around the vehicle focused on near-field sensing. They are the
principal sensors for low-speed, high accuracy, and close-range sensing
applications, such as automated parking, traffic jam assistance, and low-speed
emergency braking. In this work, we provide a detailed survey of such vision
systems, setting up the survey in the context of an architecture that can be
decomposed into four modular components namely Recognition, Reconstruction,
Relocalization, and Reorganization. We jointly call this the 4R Architecture.
We discuss how each component accomplishes a specific aspect and provide a
positional argument that they can be synergized to form a complete perception
system for low-speed automation. We support this argument by presenting results
from previous works and by presenting architecture proposals for such a system.
Qualitative results are presented in the video at https://youtu.be/ae8bCOF77uY.
- Abstract(参考訳): カメラは自動走行システムの主要なセンサーである。
高い情報密度を提供し、人間の視覚のために配置された道路インフラの手がかりを検出するのに最適である。
サラウンドビューカメラシステムは通常、4つの魚眼カメラと190の視野を持つカメラで構成されており、車体周辺の360{\deg}全体をカバーする。
これらは、自動駐車、交通渋滞支援、低速緊急ブレーキといった、低速度、高精度、および近距離感知アプリケーションの主要なセンサーである。
本研究では,このようなビジョンシステムの詳細な調査を行い,認識,再構築,再局在化,再編成という4つのモジュールコンポーネントに分解可能なアーキテクチャの文脈で調査を行う。
これを4Rアーキテクチャと呼んでいます。
我々は,各コンポーネントが特定の側面を達成する方法について論じ,低速自動化のための完全な認識システムを構築するために相乗化できるという位置論を提供する。
我々は,先行研究の結果を提示し,そのシステムに対するアーキテクチャの提案を提示することにより,この議論を支持する。
質的な結果は https://youtu.be/ae8bcof77uy.com で発表されている。
関連論文リスト
- Motor Focus: Fast Ego-Motion Prediction for Assistive Visual Navigation [3.837186701755568]
Motor Focusは、視覚的なフィードに基づいて観察者の動き方向を予測する画像ベースのフレームワークである。
我々のフレームワークは、速度(>40FPS)、精度(MAE = 60ピクセル)、堅牢性(SNR = 23dB)においてその優位性を示す。
論文 参考訳(メタデータ) (2024-04-25T20:45:39Z) - Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception [7.474695739346621]
本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
論文 参考訳(メタデータ) (2024-01-24T23:25:23Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Anticipating Driving Behavior through Deep Learning-Based Policy
Prediction [66.344923925939]
我々は、通常のカメラで捉えたビデオフレームから得られる統合的な視覚特徴と、ポイント・クラウド・スキャナーから得られた奥行きの詳細を処理できるシステムを開発した。
このシステムは、車両の速度と操舵角度の両方を含む運転行動を予測するように設計されている。
評価の結果,テストシナリオの少なくとも半分において,予測値が有意な精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-20T17:38:55Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Real-time Full-stack Traffic Scene Perception for Autonomous Driving
with Roadside Cameras [20.527834125706526]
道路側カメラを用いた交通シーン認識のための新しい枠組みを提案する。
提案フレームワークは,物体検出,物体位置推定,物体追跡,マルチカメラ情報融合など,道路面の認識をフルスタックでカバーする。
当社のフレームワークはエルズワース・Rd.と米国ミズーリ州アンアーバー州にある2車線のラウンドアラウンドで展開されており,リアルタイム交通流モニタリングと高精度車両軌道抽出を実現している。
論文 参考訳(メタデータ) (2022-06-20T13:33:52Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。