論文の概要: Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing
- arxiv url: http://arxiv.org/abs/2201.03246v2
- Date: Tue, 11 Jan 2022 22:41:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 12:38:25.245272
- Title: Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing
- Title(参考訳): 悪天候のビジョン:各種物体検出器を用いたサイクロンGANによる自律走行の堅牢な認識
- Authors: Izzeddin Teeti, Valentina Musat, Salman Khan, Alexander Rast, Fabio
Cuzzolin, Andrew Bradley
- Abstract要約: 自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
- 参考スコア(独自算出の注目度): 70.16043883381677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In an autonomous driving system, perception - identification of features and
objects from the environment - is crucial. In autonomous racing, high speeds
and small margins demand rapid and accurate detection systems. During the race,
the weather can change abruptly, causing significant degradation in perception,
resulting in ineffective manoeuvres. In order to improve detection in adverse
weather, deep-learning-based models typically require extensive datasets
captured in such conditions - the collection of which is a tedious, laborious,
and costly process. However, recent developments in CycleGAN architectures
allow the synthesis of highly realistic scenes in multiple weather conditions.
To this end, we introduce an approach of using synthesised adverse condition
datasets in autonomous racing (generated using CycleGAN) to improve the
performance of four out of five state-of-the-art detectors by an average of
42.7 and 4.4 mAP percentage points in the presence of night-time conditions and
droplets, respectively. Furthermore, we present a comparative analysis of five
object detectors - identifying the optimal pairing of detector and training
data for use during autonomous racing in challenging conditions.
- Abstract(参考訳): 自律運転システムでは、環境からの特徴や物体を識別する認識が重要である。
自律レースでは、高速と小さなマージンは迅速かつ正確な検知システムを必要とする。
レース中、天候は突然変化し、認識が著しく低下し、非効率な操作が生じる。
悪天候の検出を改善するために、ディープラーニングベースのモデルは、通常、そのような状況でキャプチャされた広範なデータセットを必要とする。
しかし、最近のCycleGANアーキテクチャは、複数の気象条件下で非常に現実的なシーンを合成することができる。
そこで本研究では, 夜間条件下での5つの最先端検出器のうち4つを平均42.7と4.4mAPのパーセンテージで改善するため, 自律レースにおける合成悪条件データセット(CycleGANを用いた)を用いたアプローチを提案する。
さらに,5つの物体検出器の比較分析を行い,自律走行時に使用する検出器の最適ペアリングとトレーニングデータの同定を行った。
関連論文リスト
- Digital twins to alleviate the need for real field data in vision-based vehicle speed detection systems [0.9899633398596672]
正確な視覚に基づく速度推定は、レーダーやLiDARに基づく従来の手法よりもコスト効率が高い。
ディープラーニングのアプローチは、利用可能なデータがないため、このコンテキストでは極めて限定的です。
本研究では,CARLAシミュレータを用いたデジタルツインを用いて,特定の実世界のカメラの大規模なデータセットを生成することを提案する。
論文 参考訳(メタデータ) (2024-07-11T10:41:20Z) - Enhancing Lidar-based Object Detection in Adverse Weather using Offset
Sequences in Time [1.1725016312484975]
ライダーによる物体検出は、雨や霧などの悪天候の影響を著しく受けている。
本研究は,ライダーによる物体検出の信頼性に対する悪天候の影響を緩和する有効な方法の総合的研究である。
論文 参考訳(メタデータ) (2024-01-17T08:31:58Z) - Challenges of YOLO Series for Object Detection in Extremely Heavy Rain:
CALRA Simulator based Synthetic Evaluation Dataset [0.0]
様々なセンサー(LiDAR、レーダー、カメラなど)による物体検出は、自動運転車に優先されるべきである。
これらのセンサーは、多様な気象条件下で物体を正確に素早く検出する必要があるが、雨や雪、霧といった悪天候条件下で物体を一貫して検出することは困難である。
本研究では,降水条件から得られた雨滴データに基づいて,様々な降水条件下で多様なネットワークモデルをテストすることのできる新しいデータセットを構築した。
論文 参考訳(メタデータ) (2023-12-13T08:45:57Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation [152.60469768559878]
ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。
曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
論文 参考訳(メタデータ) (2022-06-16T17:59:52Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Worsening Perception: Real-time Degradation of Autonomous Vehicle
Perception Performance for Simulation of Adverse Weather Conditions [47.529411576737644]
本研究では,自律走行車両における簡易かつ軽量な画像強調システムの利用の可能性を検討する。
最小限の調整で、プロトタイプシステムは、カメラレンズ上の水滴と退色光条件の両方の効果を複製することができます。
論文 参考訳(メタデータ) (2021-03-03T23:49:02Z) - Probabilistic End-to-End Vehicle Navigation in Complex Dynamic
Environments with Multimodal Sensor Fusion [16.018962965273495]
全日と全天候のナビゲーションは、自動運転にとって重要な機能である。
本稿では,カメラ,ライダー,レーダからの情報を利用して,触覚能力を備えた確率的運転モデルを提案する。
その結果,提案モデルがベースラインを上回り,目に見えない環境での優れた一般化性能を実現することが示唆された。
論文 参考訳(メタデータ) (2020-05-05T03:48:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。