論文の概要: RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution
- arxiv url: http://arxiv.org/abs/2401.00460v1
- Date: Sun, 31 Dec 2023 11:30:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 17:05:02.444807
- Title: RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution
- Title(参考訳): RainSD:特徴レベル分布を用いた画像合成のためのレインスタイル多様化モジュール
- Authors: Hyeonjae Jeon, Junghyun Seo, Taesoo Kim, Sungho Son, Jungki Lee,
Gyeungho Choi, Yongseob Lim
- Abstract要約: 本稿では,実際の道路データセットBDD100Kから発生するセンサブロックを用いた道路合成データセットを提案する。
このデータセットを用いて、自律運転のための多様なマルチタスクネットワークの劣化を評価し、分析した。
深層ニューラルネットワークを用いた自動運転車の認識システムの性能劣化傾向を深く分析した。
- 参考スコア(独自算出の注目度): 5.500457283114346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving technology nowadays targets to level 4 or beyond, but the
researchers are faced with some limitations for developing reliable driving
algorithms in diverse challenges. To promote the autonomous vehicles to spread
widely, it is important to address safety issues on this technology. Among
various safety concerns, the sensor blockage problem by severe weather
conditions can be one of the most frequent threats for multi-task learning
based perception algorithms during autonomous driving. To handle this problem,
the importance of the generation of proper datasets is becoming more
significant. In this paper, a synthetic road dataset with sensor blockage
generated from real road dataset BDD100K is suggested in the format of BDD100K
annotation. Rain streaks for each frame were made by an experimentally
established equation and translated utilizing the image-to-image translation
network based on style transfer. Using this dataset, the degradation of the
diverse multi-task networks for autonomous driving, such as lane detection,
driving area segmentation, and traffic object detection, has been thoroughly
evaluated and analyzed. The tendency of the performance degradation of deep
neural network-based perception systems for autonomous vehicle has been
analyzed in depth. Finally, we discuss the limitation and the future directions
of the deep neural network-based perception algorithms and autonomous driving
dataset generation based on image-to-image translation.
- Abstract(参考訳): 現在、自動運転技術はレベル4以上をターゲットにしているが、研究者らは様々な課題において信頼性の高い運転アルゴリズムを開発するためのいくつかの制限に直面している。
自動運転車の普及を促進するためには,この技術の安全性問題に取り組むことが重要である。
各種の安全上の懸念の中で、厳しい気象条件によるセンサーの遮断問題は、自律運転中のマルチタスク学習に基づく認識アルゴリズムの最も頻繁な脅威の1つである。
この問題に対処するため、適切なデータセットの生成の重要性が増している。
本稿では, BDD100Kアノテーションの形式を用いて, 実際の道路データセットBDD100Kからセンサブロックを発生させる合成道路データセットを提案する。
各フレームの雨片を実験的に定式化した式で作成し, スタイル転送に基づく画像から画像への変換ネットワークを用いて翻訳した。
このデータセットを用いて,車線検出,運転領域分割,交通物体検出など,自律走行のための多様なマルチタスクネットワークの劣化を評価し,解析した。
自動運転車用深層ニューラルネットワークを用いた知覚システムの性能低下傾向を深く分析した。
最後に,画像から画像への変換に基づく深層ニューラルネットワークに基づく知覚アルゴリズムと自律運転データセット生成の限界と今後の方向性について述べる。
関連論文リスト
- End-to-end Autonomous Driving: Challenges and Frontiers [45.391430626264764]
エンドツーエンドの自動運転におけるモチベーション、ロードマップ、方法論、課題、今後のトレンドについて、270以上の論文を包括的に分析する。
マルチモダリティ、解釈可能性、因果的混乱、堅牢性、世界モデルなど、いくつかの重要な課題を掘り下げます。
基礎モデルと視覚前訓練の現在の進歩と、これらの技術をエンドツーエンドの駆動フレームワークに組み込む方法について論じる。
論文 参考訳(メタデータ) (2023-06-29T14:17:24Z) - Penalty-Based Imitation Learning With Cross Semantics Generation Sensor
Fusion for Autonomous Driving [1.2749527861829049]
本稿では,複数の情報モダリティを統合するために,ペナルティに基づく模倣学習手法を提案する。
最新技術(SOTA)モデルであるInterFuserと比較して,運転スコアが12%以上増加していることが観察された。
本モデルでは, 推論速度を7倍に向上し, モデルサイズを約30%削減しながら, この性能向上を実現している。
論文 参考訳(メタデータ) (2023-03-21T14:29:52Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - SHIFT: A Synthetic Driving Dataset for Continuous Multi-Task Domain
Adaptation [152.60469768559878]
ShiFTは、自動運転のための最大規模のマルチタスク合成データセットである。
曇り、雨と霧の強さ、昼の時間、車と歩行者の密度を個別に連続的に変化させる。
私たちのデータセットとベンチマークツールキットはwww.vis.xyz/shift.comで公開されています。
論文 参考訳(メタデータ) (2022-06-16T17:59:52Z) - Federated Deep Learning Meets Autonomous Vehicle Perception: Design and
Verification [168.67190934250868]
フェデレーテッド・ラーニング・パワード・コネクテッド・オートモービル(FLCAV)が提案されている。
FLCAVは通信とアノテーションのコストを削減しながらプライバシを保存する。
マルチステージトレーニングのためのネットワークリソースと道路センサのポーズを決定することは困難である。
論文 参考訳(メタデータ) (2022-06-03T23:55:45Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Driving Style Representation in Convolutional Recurrent Neural Network
Model of Driver Identification [8.007800530105191]
運転スタイルのための高忠実度表現を構築するために,D-CRNNと呼ばれるディープ・ニューラル・ネットワークアーキテクチャを提案する。
CNNを用いて、軌道からの運転行動の意味的パターンをキャプチャする。
次に、RNNを用いて駆動スタイルをエンコードするこれらのセマンティックパターン間の時間的依存関係を見つけ出す。
論文 参考訳(メタデータ) (2021-02-11T04:33:43Z) - The NEOLIX Open Dataset for Autonomous Driving [1.4091801425319965]
自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
論文 参考訳(メタデータ) (2020-11-27T02:27:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。