論文の概要: Object Detection Under Rainy Conditions for Autonomous Vehicles: A
Review of State-of-the-Art and Emerging Techniques
- arxiv url: http://arxiv.org/abs/2006.16471v4
- Date: Fri, 12 Feb 2021 02:16:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:48:36.391998
- Title: Object Detection Under Rainy Conditions for Autonomous Vehicles: A
Review of State-of-the-Art and Emerging Techniques
- Title(参考訳): 自動運転車の雨条件下での物体検出:最新技術と新興技術のレビュー
- Authors: Mazin Hnewa and Hayder Radha
- Abstract要約: 本稿では,自律走行車における物体検出能力に対する降雨条件の影響を緩和するための最先端技術に関するチュートリアルを提案する。
我々のゴールは、澄んだ雨条件下で収集した視覚データを用いて訓練・試験された物体検出手法の性能を調査し、分析することである。
- 参考スコア(独自算出の注目度): 5.33024001730262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advanced automotive active-safety systems, in general, and autonomous
vehicles, in particular, rely heavily on visual data to classify and localize
objects such as pedestrians, traffic signs and lights, and other nearby cars,
to assist the corresponding vehicles maneuver safely in their environments.
However, the performance of object detection methods could degrade rather
significantly under challenging weather scenarios including rainy conditions.
Despite major advancements in the development of deraining approaches, the
impact of rain on object detection has largely been understudied, especially in
the context of autonomous driving. The main objective of this paper is to
present a tutorial on state-of-the-art and emerging techniques that represent
leading candidates for mitigating the influence of rainy conditions on an
autonomous vehicle's ability to detect objects. Our goal includes surveying and
analyzing the performance of object detection methods trained and tested using
visual data captured under clear and rainy conditions. Moreover, we survey and
evaluate the efficacy and limitations of leading deraining approaches,
deep-learning based domain adaptation, and image translation frameworks that
are being considered for addressing the problem of object detection under rainy
conditions. Experimental results of a variety of the surveyed techniques are
presented as part of this tutorial.
- Abstract(参考訳): 先進的な自動車の能動安全システム、特に自動運転車は、視覚データに重きを置き、歩行者、交通標識、照明、その他の周辺車両を分類・ローカライズし、対応する車両が環境の中で安全に行動するのを支援している。
しかし,雨天など厳しい気象シナリオ下では,物体検出手法の性能は著しく低下する可能性がある。
レーディング・アプローチの開発において大きな進歩があったにもかかわらず、特に自動運転の文脈において、物体検出に対する雨の影響は概ね未熟である。
本論文の目的は,雨条件が自律走行車両の物体検出能力に与える影響を緩和するための先駆的候補を表現する,最先端および新興技術に関するチュートリアルを提供することである。
我々のゴールは、澄んだ雨条件下で収集した視覚データを用いて訓練・試験された物体検出手法の性能を調査し、分析することである。
また,雨天時の物体検出問題に対処するために検討されている,おもなレーディング手法,ディープラーニングに基づくドメイン適応,画像翻訳フレームワークの有効性と限界を調査し,評価する。
本チュートリアルでは,様々な調査手法の実験結果を紹介する。
関連論文リスト
- Fairness in Autonomous Driving: Towards Understanding Confounding Factors in Object Detection under Challenging Weather [7.736445799116692]
本研究では,最先端の変圧器を用いた物体検出装置において,歩行者の公正さを実証的に分析する。
古典的メトリクスに加えて,オブジェクト検出の様々な複雑な特性を測定するために,新しい確率ベースのメトリクスを導入する。
筆者らによる定量的分析では、現場の人口分布、天気の重大さ、歩行者のAV接近など、これまで見過ごされていた直感的な要因が、物体検出性能にどのように影響しているかを明らかにした。
論文 参考訳(メタデータ) (2024-05-31T22:35:10Z) - Challenges of YOLO Series for Object Detection in Extremely Heavy Rain:
CALRA Simulator based Synthetic Evaluation Dataset [0.0]
様々なセンサー(LiDAR、レーダー、カメラなど)による物体検出は、自動運転車に優先されるべきである。
これらのセンサーは、多様な気象条件下で物体を正確に素早く検出する必要があるが、雨や雪、霧といった悪天候条件下で物体を一貫して検出することは困難である。
本研究では,降水条件から得られた雨滴データに基づいて,様々な降水条件下で多様なネットワークモデルをテストすることのできる新しいデータセットを構築した。
論文 参考訳(メタデータ) (2023-12-13T08:45:57Z) - DRUformer: Enhancing the driving scene Important object detection with
driving relationship self-understanding [50.81809690183755]
交通事故はしばしば致命傷を負い、2023年まで5000万人以上の死者を出した。
従来の研究は、主に個々の参加者の重要性を評価し、それらを独立した存在として扱うものであった。
本稿では、重要な物体検出タスクを強化するために、運転シーン関連自己理解変換器(DRUformer)を紹介する。
論文 参考訳(メタデータ) (2023-11-11T07:26:47Z) - DARTH: Holistic Test-time Adaptation for Multiple Object Tracking [87.72019733473562]
複数物体追跡(MOT)は、自律運転における知覚システムの基本的構成要素である。
運転システムの安全性の追求にもかかわらず、テスト時間条件における領域シフトに対するMOT適応問題に対する解決策は提案されていない。
我々はMOTの総合的なテスト時間適応フレームワークであるDARTHを紹介する。
論文 参考訳(メタデータ) (2023-10-03T10:10:42Z) - Domain Adaptation based Object Detection for Autonomous Driving in Foggy and Rainy Weather [44.711384869027775]
ドメインギャップのため、晴れた天候下で訓練された検出モデルは、霧や雨の条件下ではうまく機能しない可能性がある。
霧や雨の天候下での領域ギャップを埋め、オブジェクト検出の性能を向上させるため、ドメイン適応型オブジェクト検出のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-18T23:06:47Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Studying Person-Specific Pointing and Gaze Behavior for Multimodal
Referencing of Outside Objects from a Moving Vehicle [58.720142291102135]
物体選択と参照のための自動車応用において、手指しと目視が広く研究されている。
既存の車外参照手法は静的な状況に重点を置いているが、移動車両の状況は極めて動的であり、安全性に制約がある。
本研究では,外部オブジェクトを参照するタスクにおいて,各モダリティの具体的特徴とそれら間の相互作用について検討する。
論文 参考訳(メタデータ) (2020-09-23T14:56:19Z) - Probabilistic End-to-End Vehicle Navigation in Complex Dynamic
Environments with Multimodal Sensor Fusion [16.018962965273495]
全日と全天候のナビゲーションは、自動運転にとって重要な機能である。
本稿では,カメラ,ライダー,レーダからの情報を利用して,触覚能力を備えた確率的運転モデルを提案する。
その結果,提案モデルがベースラインを上回り,目に見えない環境での優れた一般化性能を実現することが示唆された。
論文 参考訳(メタデータ) (2020-05-05T03:48:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。