論文の概要: SUSTechGAN: Image Generation for Object Recognition in Adverse Conditions of Autonomous Driving
- arxiv url: http://arxiv.org/abs/2408.01430v1
- Date: Thu, 18 Jul 2024 15:32:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 05:08:48.009846
- Title: SUSTechGAN: Image Generation for Object Recognition in Adverse Conditions of Autonomous Driving
- Title(参考訳): SUSTechGAN:自律運転の逆条件における物体認識のための画像生成
- Authors: Gongjin Lan, Yang Peng, Qi Hao, Chengzhong Xu,
- Abstract要約: 本稿では,2つの注意モジュールとマルチスケールジェネレータを備えた新しいSUSTechGANを提案する。
我々は、SUSTechGANと既存のよく知られたGANを用いて、雨と夜の悪天候下で駆動画像を生成し、生成した画像をオブジェクト認識ネットワークの再トレーニングに適用する。
実験の結果,SUSTechGANで生成した運転画像は,降雨時のヨロブ5の再学習性能を有意に向上した。
- 参考スコア(独自算出の注目度): 22.985889862182642
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous driving significantly benefits from data-driven deep neural networks. However, the data in autonomous driving typically fits the long-tailed distribution, in which the critical driving data in adverse conditions is hard to collect. Although generative adversarial networks (GANs) have been applied to augment data for autonomous driving, generating driving images in adverse conditions is still challenging. In this work, we propose a novel SUSTechGAN with dual attention modules and multi-scale generators to generate driving images for improving object recognition of autonomous driving in adverse conditions. We test the SUSTechGAN and the existing well-known GANs to generate driving images in adverse conditions of rain and night and apply the generated images to retrain object recognition networks. Specifically, we add generated images into the training datasets to retrain the well-known YOLOv5 and evaluate the improvement of the retrained YOLOv5 for object recognition in adverse conditions. The experimental results show that the generated driving images by our SUSTechGAN significantly improved the performance of retrained YOLOv5 in rain and night conditions, which outperforms the well-known GANs. The open-source code, video description and datasets are available on the page 1 to facilitate image generation development in autonomous driving under adverse conditions.
- Abstract(参考訳): 自律運転は、データ駆動のディープニューラルネットワークから大きな恩恵を受ける。
しかし、自律運転のデータは通常、悪条件下での臨界運転データが収集されにくい長い尾の分布に適合する。
自動走行のためのデータ拡張にはGAN(Generative Adversarial Network)が適用されているが、悪条件下での運転画像の生成は依然として困難である。
本研究では,2つの注意モジュールとマルチスケールジェネレータを備えた新しいSUSTechGANを提案する。
我々は、SUSTechGANと既存のよく知られたGANを用いて、雨と夜の悪天候下で駆動画像を生成し、生成した画像をオブジェクト認識ネットワークの再トレーニングに適用する。
具体的には、トレーニングデータセットに生成された画像を加え、よく知られたYOLOv5を再訓練し、悪条件下での物体認識のための再学習YOLOv5の改善を評価する。
SUSTechGANにより生成された運転画像は,降雨条件および夜間条件下でのYOLOv5の再現性能を著しく向上し,GANよりも優れていた。
オープンソースコード、ビデオ記述、データセットは、悪条件下での自律運転における画像生成を容易にするために、ページ1で利用可能である。
関連論文リスト
- Enhancing autonomous vehicle safety in rain: a data-centric approach for clear vision [0.0]
我々は,雨による視覚障害を取り除くために,ライブ車両のカメラフィードを処理する視覚モデルを開発した。
従来のエンコーダ・デコーダアーキテクチャを用いて,接続をスキップし,操作を連結した。
その結果, 降雨条件下での航法安全性と信頼性を高めるため, 操舵精度が向上した。
論文 参考訳(メタデータ) (2024-12-29T20:27:12Z) - Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
車両内のカメラ位置の変化に耐えられるような頑健なモデルを導入する。
我々のドライバ行動監視ネットワーク(DBMNet)は軽量なバックボーンに依存し、アンタングルメントモジュールを統合する。
100-Driverデータセットの夜間および夜間のサブセットで行った実験は、我々のアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - YOLO-Vehicle-Pro: A Cloud-Edge Collaborative Framework for Object Detection in Autonomous Driving under Adverse Weather Conditions [8.820126303110545]
本稿では, YOLO-VehicleとYOLO-Vehicle-Proの2つの革新的なディープラーニングモデルを提案する。
YOLO-Vehicleは、自動運転シナリオに特化したオブジェクト検出モデルである。
YOLO-Vehicle-Proはこの基盤の上に構築されており、改良されたイメージデハージングアルゴリズムを導入している。
論文 参考訳(メタデータ) (2024-10-23T10:07:13Z) - Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models [60.87795376541144]
World Model(ワールドモデル)は、エージェントの次の状態を予測できるニューラルネットワークである。
エンド・ツー・エンドのトレーニングでは、人間のデモで観察された状態と整合してエラーから回復する方法を学ぶ。
クローズドループ試験における先行技術に有意な改善がみられた定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-09-25T06:48:25Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution [5.500457283114346]
本稿では,実際の道路データセットBDD100Kから発生するセンサブロックを用いた道路合成データセットを提案する。
このデータセットを用いて、自律運転のための多様なマルチタスクネットワークの劣化を評価し、分析した。
深層ニューラルネットワークを用いた自動運転車の認識システムの性能劣化傾向を深く分析した。
論文 参考訳(メタデータ) (2023-12-31T11:30:42Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Generating Clear Images From Images With Distortions Caused by Adverse
Weather Using Generative Adversarial Networks [0.0]
本研究では,雨滴の付着による歪みを含む悪天候条件にともなう画像に対するコンピュータビジョンタスクの改善手法を提案する。
適切な生成対向ネットワークを訓練し,歪みの影響を除去するのに有効であることを示した。
論文 参考訳(メタデータ) (2022-11-01T05:02:44Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。