論文の概要: Near-field Sensing Architecture for Low-Speed Vehicle Automation using a
Surround-view Fisheye Camera System
- arxiv url: http://arxiv.org/abs/2103.17001v1
- Date: Wed, 31 Mar 2021 11:33:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:21:20.492602
- Title: Near-field Sensing Architecture for Low-Speed Vehicle Automation using a
Surround-view Fisheye Camera System
- Title(参考訳): 魚眼カメラシステムを用いた低速自動車自動化のための近接場センシングアーキテクチャ
- Authors: Ciar\'an Eising, Jonathan Horgan and Senthil Yogamani
- Abstract要約: 商用車両に搭載されたシステム用に設計されたサラウンドビューカメラの視覚知覚アーキテクチャについて述べる。
我々は,認識,再構築,再局在化,再編成という4つのモジュールコンポーネントにシステムを設計した。
各コンポーネントが特定の側面をどのように達成し、どのようにシナジー化して完全なシステムを形成するかを説明します。
- 参考スコア(独自算出の注目度): 0.3033225941396505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cameras are the primary sensor in automated driving systems. They provide
high information density and are optimal for detecting road infrastructure cues
laid out for human vision. Surround view cameras typically comprise of four
fisheye cameras with 190{\deg} field-of-view covering the entire 360{\deg}
around the vehicle focused on near field sensing. They are the principal sensor
for low-speed, high accuracy and close-range sensing applications, such as
automated parking, traffic jam assistance and low-speed emergency braking. In
this work, we describe our visual perception architecture on surround view
cameras designed for a system deployed in commercial vehicles, provide a
functional review of the different stages of such a computer vision system, and
discuss some of the current technological challenges. We have designed our
system into four modular components namely Recognition, Reconstruction,
Relocalization and Reorganization. We jointly call this the 4R Architecture. We
discuss how each component accomplishes a specific aspect and how they are
synergized to form a complete system. Qualitative results are presented in the
video at \url{https://youtu.be/ae8bCOF77uY}.
- Abstract(参考訳): カメラは自動走行システムの主要なセンサーである。
高い情報密度を提供し、人間の視覚のために配置された道路インフラの手がかりを検出するのに最適である。
サラウンドビューカメラは、通常4台の魚眼カメラと190個の視野カメラで構成されており、車体周辺の360{\deg}全体を近距離センシングに焦点をあてている。
それらは、自動駐車、交通渋滞支援、低速緊急ブレーキなど、低速で高精度で近接したセンシングアプリケーションのための主要なセンサーである。
本稿では,商用車両に搭載されるシステム用に設計されたサラウンドビューカメラの視覚認識アーキテクチャについて述べるとともに,そのようなコンピュータビジョンシステムの異なる段階の機能を検証し,現在の技術的課題について考察する。
我々は,認識,再構築,再局在化,再編成という4つのモジュールコンポーネントにシステムを設計した。
これを4Rアーキテクチャと呼んでいます。
それぞれのコンポーネントが特定の側面をどのように達成し、どのようにして完全なシステムを形成するかについて議論する。
質的な結果は、ビデオの \url{https://youtu.be/ae8bCOF77uY} で示される。
関連論文リスト
- Motor Focus: Fast Ego-Motion Prediction for Assistive Visual Navigation [3.837186701755568]
Motor Focusは、視覚的なフィードに基づいて観察者の動き方向を予測する画像ベースのフレームワークである。
我々のフレームワークは、速度(>40FPS)、精度(MAE = 60ピクセル)、堅牢性(SNR = 23dB)においてその優位性を示す。
論文 参考訳(メタデータ) (2024-04-25T20:45:39Z) - Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception [7.474695739346621]
本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
論文 参考訳(メタデータ) (2024-01-24T23:25:23Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Anticipating Driving Behavior through Deep Learning-Based Policy
Prediction [66.344923925939]
我々は、通常のカメラで捉えたビデオフレームから得られる統合的な視覚特徴と、ポイント・クラウド・スキャナーから得られた奥行きの詳細を処理できるシステムを開発した。
このシステムは、車両の速度と操舵角度の両方を含む運転行動を予測するように設計されている。
評価の結果,テストシナリオの少なくとも半分において,予測値が有意な精度を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-07-20T17:38:55Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Real-time Full-stack Traffic Scene Perception for Autonomous Driving
with Roadside Cameras [20.527834125706526]
道路側カメラを用いた交通シーン認識のための新しい枠組みを提案する。
提案フレームワークは,物体検出,物体位置推定,物体追跡,マルチカメラ情報融合など,道路面の認識をフルスタックでカバーする。
当社のフレームワークはエルズワース・Rd.と米国ミズーリ州アンアーバー州にある2車線のラウンドアラウンドで展開されており,リアルタイム交通流モニタリングと高精度車両軌道抽出を実現している。
論文 参考訳(メタデータ) (2022-06-20T13:33:52Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Surround-view Fisheye Camera Perception for Automated Driving: Overview,
Survey and Challenges [1.4452405977630436]
車両4面の4つの魚眼カメラは、車両の周囲を360度で覆うのに十分である。
主な用途は、自動駐車、交通渋滞支援、都市運転である。
魚眼カメラの半径歪みが大きいため、標準的なアルゴリズムはサラウンドビューのユースケースに容易に拡張できない。
論文 参考訳(メタデータ) (2022-05-26T11:38:04Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。