論文の概要: How to deal with glare for improved perception of Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2404.10992v1
- Date: Wed, 17 Apr 2024 02:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 15:34:07.519624
- Title: How to deal with glare for improved perception of Autonomous Vehicles
- Title(参考訳): 自動運転車の認識向上のためのグラア対策
- Authors: Muhammad Z. Alam, Zeeshan Kaleem, Sousso Kelouwani,
- Abstract要約: 視覚センサーは多用途であり、色、テクスチャ、形状、深さなど幅広い視覚的手がかりを捉えることができる。
視覚に基づく環境認識システムは、明るい光源の存在下での光沢によって容易に影響を受ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision sensors are versatile and can capture a wide range of visual cues, such as color, texture, shape, and depth. This versatility, along with the relatively inexpensive availability of machine vision cameras, played an important role in adopting vision-based environment perception systems in autonomous vehicles (AVs). However, vision-based perception systems can be easily affected by glare in the presence of a bright source of light, such as the sun or the headlights of the oncoming vehicle at night or simply by light reflecting off snow or ice-covered surfaces; scenarios encountered frequently during driving. In this paper, we investigate various glare reduction techniques, including the proposed saturated pixel-aware glare reduction technique for improved performance of the computer vision (CV) tasks employed by the perception layer of AVs. We evaluate these glare reduction methods based on various performance metrics of the CV algorithms used by the perception layer. Specifically, we considered object detection, object recognition, object tracking, depth estimation, and lane detection which are crucial for autonomous driving. The experimental findings validate the efficacy of the proposed glare reduction approach, showcasing enhanced performance across diverse perception tasks and remarkable resilience against varying levels of glare.
- Abstract(参考訳): 視覚センサーは多用途であり、色、テクスチャ、形状、深さなど幅広い視覚的手がかりを捉えることができる。
この汎用性と比較的安価なマシンビジョンカメラは、自動運転車(AV)にビジョンベースの環境認識システムを採用する上で重要な役割を担った。
しかし、視覚に基づく知覚システムは、夜間の太陽や対向車両のヘッドライトのような明るい光源の存在や、単に雪や氷で覆われた表面を反射する光の影響を受けやすい。
本稿では,AVの知覚層で使用されるコンピュータビジョン(CV)タスクの性能向上を目的とした,飽和画素対応のグラア低減技術を含む,様々なグラア低減手法について検討する。
認識層が使用するCVアルゴリズムの性能測定値に基づいて,これらのグラア低減手法を評価する。
具体的には,自律走行に不可欠な物体検出,物体認識,物体追跡,深度推定,車線検出について検討した。
実験により, グレア低減法の有効性を検証し, 多様な知覚課題にまたがる性能向上と, グレアのレベルに対する優れたレジリエンスを示した。
関連論文リスト
- Light the Night: A Multi-Condition Diffusion Framework for Unpaired Low-Light Enhancement in Autonomous Driving [45.97279394690308]
LightDiffは、自動運転アプリケーションの低照度画像品質を高めるために設計されたフレームワークである。
深度マップ、RGB画像、テキストキャプションなど、様々なモードから入力重みを適応的に制御する新しいマルチコンディションアダプタが組み込まれている。
夜間の条件下での最先端の3D検出器の性能を著しく向上し、高い視覚的品質のスコアを達成できる。
論文 参考訳(メタデータ) (2024-04-07T04:10:06Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - A Feature-based Approach for the Recognition of Image Quality
Degradation in Automotive Applications [0.0]
本稿では,自動車アプリケーションにおける画像品質の劣化を検知する特徴に基づくアルゴリズムを提案する。
異なるデータセットを用いた実験により、このアルゴリズムはカメラレンズに付着した汚れを検知し、異なるタイプの画像劣化を分類できることが示された。
論文 参考訳(メタデータ) (2023-03-13T13:40:09Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Vision-Based Environmental Perception for Autonomous Driving [4.138893879750758]
視覚認知は自律運転において重要な役割を果たす。
近年のディープラーニング手法の開発は信頼性と処理速度が向上している。
単眼カメラは、物体の深度を推定するために、単一の視点からの画像データを使用する。
同時位置情報マッピング(SLAM)は、道路環境のモデルを構築することができる。
論文 参考訳(メタデータ) (2022-12-22T01:59:58Z) - Peripheral Vision Transformer [52.55309200601883]
我々は生物学的にインスパイアされたアプローチを採用し、視覚認識のためのディープニューラルネットワークの周辺視覚をモデル化する。
本稿では,マルチヘッド自己アテンション層に周辺位置エンコーディングを組み込むことにより,トレーニングデータから視覚領域を様々な周辺領域に分割することをネットワークが学べるようにすることを提案する。
大規模画像Netデータセット上でPerViTと呼ばれる提案したネットワークを評価し,マシン知覚モデルの内部動作を体系的に検討した。
論文 参考訳(メタデータ) (2022-06-14T12:47:47Z) - Task-Driven Deep Image Enhancement Network for Autonomous Driving in Bad
Weather [5.416049433853457]
悪天候では、視覚的知覚はいくつかの劣化効果によって大きく影響を受ける。
画像の高品質な復元と高精度な知覚の両方に適した高レベルタスクモデルを導くための新しいタスク駆動型トレーニング戦略を導入する。
実験の結果, 提案手法は車線および2次元物体検出の性能を向上し, 主に悪天候下での深度推定が可能であることがわかった。
論文 参考訳(メタデータ) (2021-10-14T08:03:33Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z) - Provident Vehicle Detection at Night for Advanced Driver Assistance
Systems [3.7468898363447654]
本報告では, 夜間に来るべき車両を, 発生した光成果物に基づいて検出するシステムについて述べる。
本研究では,提案システムが提供する時間的メリットを,実稼働型コンピュータビジョンシステムと比較して定量化する。
論文 参考訳(メタデータ) (2021-07-23T15:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。