論文の概要: Enhancing autonomous vehicle safety in rain: a data-centric approach for clear vision
- arxiv url: http://arxiv.org/abs/2412.20565v1
- Date: Sun, 29 Dec 2024 20:27:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:02:08.348022
- Title: Enhancing autonomous vehicle safety in rain: a data-centric approach for clear vision
- Title(参考訳): 雨の中で自動運転車の安全性を高める: 透明な視界のためのデータ中心のアプローチ
- Authors: Mark A. Seferian, Jidong J. Yang,
- Abstract要約: 我々は,雨による視覚障害を取り除くために,ライブ車両のカメラフィードを処理する視覚モデルを開発した。
従来のエンコーダ・デコーダアーキテクチャを用いて,接続をスキップし,操作を連結した。
その結果, 降雨条件下での航法安全性と信頼性を高めるため, 操舵精度が向上した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Autonomous vehicles face significant challenges in navigating adverse weather, particularly rain, due to the visual impairment of camera-based systems. In this study, we leveraged contemporary deep learning techniques to mitigate these challenges, aiming to develop a vision model that processes live vehicle camera feeds to eliminate rain-induced visual hindrances, yielding visuals closely resembling clear, rain-free scenes. Using the Car Learning to Act (CARLA) simulation environment, we generated a comprehensive dataset of clear and rainy images for model training and testing. In our model, we employed a classic encoder-decoder architecture with skip connections and concatenation operations. It was trained using novel batching schemes designed to effectively distinguish high-frequency rain patterns from low-frequency scene features across successive image frames. To evaluate the model performance, we integrated it with a steering module that processes front-view images as input. The results demonstrated notable improvements in steering accuracy, underscoring the model's potential to enhance navigation safety and reliability in rainy weather conditions.
- Abstract(参考訳): 自動運転車は、カメラベースのシステムの視覚的障害のために、悪天候、特に雨をナビゲートする上で重大な課題に直面している。
本研究では,これらの課題を緩和するために,現代の深層学習技術を活用し,雨による視覚障害を解消し,透明で無雨のシーンによく似た視覚を与えるために,ライブ車両カメラのフィードを処理するビジョンモデルを開発することを目的とした。
カーラーニング・トゥ・アクト(Car Learning to Act, CARLA)シミュレーション環境を用いて, モデルトレーニングとテストのための明瞭で雨の多い画像の包括的データセットを作成した。
提案モデルでは,従来のエンコーダ・デコーダアーキテクチャを用いて接続をスキップし,操作を連結する。
連続した画像フレーム間の低周波シーン特徴と高周波降雨パターンを効果的に区別する新しいバッチ方式を用いて訓練した。
モデルの性能を評価するため、フロントビュー画像を入力として処理するステアリングモジュールと統合した。
その結果, 降雨条件下での航法安全性と信頼性を高めるため, 操舵精度が向上した。
関連論文リスト
- Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - Robust ADAS: Enhancing Robustness of Machine Learning-based Advanced Driver Assistance Systems for Adverse Weather [5.383130566626935]
本稿では,デノイングディープニューラルネットワークを前処理ステップとして,悪天候画像から晴天画像へ変換する。
ドライバーの視認性が向上し、悪天候下での安全なナビゲーションに欠かせない。
論文 参考訳(メタデータ) (2024-07-02T18:03:52Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Contrastive Learning Based Recursive Dynamic Multi-Scale Network for
Image Deraining [47.764883957379745]
雨のストリークは撮影画像の可視性を著しく低下させる。
既存のディープラーニングベースの画像デライニング手法では、手作業で構築されたネットワークを使用して、雨の降った画像から明確な画像への直接投影を学習する。
本稿では,雨天画像と澄んだ画像との相関関係を考察した,対照的な学習に基づく画像デライニング手法を提案する。
論文 参考訳(メタデータ) (2023-05-29T13:51:41Z) - Radar Enlighten the Dark: Enhancing Low-Visibility Perception for
Automated Vehicles with Camera-Radar Fusion [8.946655323517094]
低視認性条件に対処するために,トランスフォーマーを用いた新しい3次元オブジェクト検出モデル"REDFormer"を提案する。
我々のモデルは、分類と検出精度で最先端(SOTA)モデルより優れている。
論文 参考訳(メタデータ) (2023-05-27T00:47:39Z) - Why current rain denoising models fail on CycleGAN created rain images
in autonomous driving [1.4831974871130875]
GAN(Generative Adversarial Network)を用いた一組のクリアウェザー条件画像に雨を人工的に付加する
この人工的な雨画像の生成は、10件中7件で、人間の被験者は生成された雨画像が本物だと信じていた。
第2のステップでは、このペア付きグッド/バッド気象画像データを使用して、主にCNN(Convolutional Neural Network)とVision Transformer(Vision Transformer)をベースとした2つの降雨モデルをトレーニングする。
論文 参考訳(メタデータ) (2023-05-22T12:42:32Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - From Rain Generation to Rain Removal [67.71728610434698]
雨層を生成物としてパラメータ化した雨画像のためのベイズ生成モデルを構築した。
降雨画像の統計的分布を推定するために,変分推論の枠組みを用いる。
総合的な実験により,提案モデルが複雑な降雨分布を忠実に抽出できることが確認された。
論文 参考訳(メタデータ) (2020-08-08T18:56:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。