論文の概要: Unconventional Visual Sensors for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2205.09383v1
- Date: Thu, 19 May 2022 08:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-21 04:40:18.663897
- Title: Unconventional Visual Sensors for Autonomous Vehicles
- Title(参考訳): 自動車用非従来型視覚センサ
- Authors: You Li, Julien Moreau, Javier Ibanez-Guzman
- Abstract要約: 我々は、赤外線カメラ、レンジゲートカメラ、偏光カメラ、イベントカメラの4つの新しいイメージセンサーの原理を概観する。
それらの比較優位性、既存または潜在的アプリケーション、および対応するデータ処理アルゴリズムが提示される。
- 参考スコア(独自算出の注目度): 3.3227094421785344
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Autonomous vehicles rely on perception systems to understand their
surroundings for further navigation missions. Cameras are essential for
perception systems due to the advantages of object detection and recognition
provided by modern computer vision algorithms, comparing to other sensors, such
as LiDARs and radars. However, limited by its inherent imaging principle, a
standard RGB camera may perform poorly in a variety of adverse scenarios,
including but not limited to: low illumination, high contrast, bad weather such
as fog/rain/snow, etc. Meanwhile, estimating the 3D information from the 2D
image detection is generally more difficult when compared to LiDARs or radars.
Several new sensing technologies have emerged in recent years to address the
limitations of conventional RGB cameras. In this paper, we review the
principles of four novel image sensors: infrared cameras, range-gated cameras,
polarization cameras, and event cameras. Their comparative advantages, existing
or potential applications, and corresponding data processing algorithms are all
presented in a systematic manner. We expect that this study will assist
practitioners in the autonomous driving society with new perspectives and
insights.
- Abstract(参考訳): 自動運転車は、周囲を理解するために認識システムに依存している。
カメラは、現代のコンピュータビジョンアルゴリズムが提供する物体検出と認識の利点から、lidarやレーダーなどの他のセンサーと比較して、知覚システムにとって不可欠である。
しかし、その固有の撮像原理によって制限されるため、標準的なrgbカメラは、低照度、高コントラスト、霧・雨・雪などの悪天候など、様々な悪いシナリオで性能が低下する可能性がある。
一方,2次元画像検出による3次元情報の推定は,ライダーやレーダーに比べて一般的に困難である。
近年、従来のRGBカメラの限界に対応するために、いくつかの新しいセンシング技術が登場している。
本稿では,赤外線カメラ,レンジゲートカメラ,偏光カメラ,イベントカメラの4つの新しいイメージセンサの原理を概観する。
それらの比較優位性、既存または潜在的アプリケーション、および対応するデータ処理アルゴリズムはすべて、体系的な方法で提示される。
本研究は、自動運転社会の実践者に対して、新たな視点と洞察を提供することを期待する。
関連論文リスト
- Prototipo de un Contador Bidireccional Automático de Personas basado en sensores de visión 3D [39.58317527488534]
RGB-Dセンサーとしても知られる3Dセンサーは、深度画像を利用して、各ピクセルがカメラから物体までの距離を測定する。
プロトタイプはRGB-Dセンサーを使って、スタジアムや空港などの空間におけるセキュリティと監視を支援する。
このシステムには、RealSense D415奥行きカメラと、人物をカウントするオブジェクト検出アルゴリズムを実行するミニコンピュータと、身元確認のための2Dカメラが含まれている。
論文 参考訳(メタデータ) (2024-03-18T23:18:40Z) - Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception [7.474695739346621]
本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
論文 参考訳(メタデータ) (2024-01-24T23:25:23Z) - Polarimetric Imaging for Perception [3.093890460224435]
我々は、RGB偏光カメラを用いた知覚タスクの改善の可能性を分析する。
我々は、最先端のディープニューラルネットワークを用いて、両者にとって定量化された改善が達成可能であることを示す。
論文 参考訳(メタデータ) (2023-05-24T06:42:27Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Rethinking of Radar's Role: A Camera-Radar Dataset and Systematic
Annotator via Coordinate Alignment [38.24705460170415]
CRUWと呼ばれる新しいデータセットを体系的なアノテーションとパフォーマンス評価システムで提案する。
CRUWは、レーダーの無線周波数(RF)画像から3Dのオブジェクトを純粋に分類し、ローカライズすることを目指しています。
私たちの知る限り、CRUWは体系的なアノテーションと評価システムを備えた最初の公開大規模データセットです。
論文 参考訳(メタデータ) (2021-05-11T17:13:45Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - All-Weather Object Recognition Using Radar and Infrared Sensing [1.7513645771137178]
この論文は、物体を認識するために、長波偏光赤外線(IR)画像とイメージングレーダに基づく新しいセンシング開発を探求する。
まず、偏光赤外データを用いたストークスパラメータに基づく手法を開発し、深層ニューラルネットワークを用いた車両の認識を行った。
第2に、低THzレーダセンサで捉えたパワースペクトルのみを用いて、制御されたシナリオで物体認識を行う可能性について検討した。
最後に、悪天候下で車両を検出するレーダーロバスト性を示す多くの異なる気象シナリオを備えた、"ワイルド"に新しい大規模なデータセットを作成しました。
論文 参考訳(メタデータ) (2020-10-30T14:16:39Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。