論文の概要: Weather and Light Level Classification for Autonomous Driving: Dataset,
Baseline and Active Learning
- arxiv url: http://arxiv.org/abs/2104.14042v1
- Date: Wed, 28 Apr 2021 22:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:50:18.336783
- Title: Weather and Light Level Classification for Autonomous Driving: Dataset,
Baseline and Active Learning
- Title(参考訳): 自律運転のための天気と光レベルの分類:データセット、ベースライン、アクティブラーニング
- Authors: Mahesh M Dhananjaya, Varun Ravi Kumar and Senthil Yogamani
- Abstract要約: 気象(fog,雨,雪)の分類と光度(ブライト,中等,低)の分類のための新しいデータセットを構築した。
それぞれの画像には、天気、光度、街路に対応した3つのラベルがある。
データセットの冗長性を低減し、モデルのトレーニングに最適なフレームセットを見つけるために、アクティブな学習フレームワークを実装します。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving is rapidly advancing, and Level 2 functions are becoming a
standard feature. One of the foremost outstanding hurdles is to obtain robust
visual perception in harsh weather and low light conditions where accuracy
degradation is severe. It is critical to have a weather classification model to
decrease visual perception confidence during these scenarios. Thus, we have
built a new dataset for weather (fog, rain, and snow) classification and light
level (bright, moderate, and low) classification. Furthermore, we provide
street type (asphalt, grass, and cobblestone) classification, leading to 9
labels. Each image has three labels corresponding to weather, light level, and
street type. We recorded the data utilizing an industrial front camera of RCCC
(red/clear) format with a resolution of $1024\times1084$. We collected 15k
video sequences and sampled 60k images. We implement an active learning
framework to reduce the dataset's redundancy and find the optimal set of frames
for training a model. We distilled the 60k images further to 1.1k images, which
will be shared publicly after privacy anonymization. There is no public dataset
for weather and light level classification focused on autonomous driving to the
best of our knowledge. The baseline ResNet18 network used for weather
classification achieves state-of-the-art results in two non-automotive weather
classification public datasets but significantly lower accuracy on our proposed
dataset, demonstrating it is not saturated and needs further research.
- Abstract(参考訳): 自動運転は急速に進歩しており、レベル2機能は標準機能になりつつある。
最も顕著なハードルの1つは、精度の劣化が深刻である厳しい天候や低照度環境で、堅牢な視覚的知覚を得ることである。
これらのシナリオにおいて、視覚的認識の信頼性を低下させるための気象分類モデルを持つことが重要である。
そこで我々は,気象(fog,雨,雪)分類と光度(bright, medium, and low)分類のための新しいデータセットを構築した。
さらに, 道路タイプ (アスファルト, 草, 石石) の分類を行い, 9つのラベルを得た。
それぞれの画像には、天気、光度、街路に対応した3つのラベルがある。
RCCC(red/clear)フォーマットの工業用フロントカメラを用いて1024\times1084$の解像度でデータを記録した。
我々は15kの映像を収集し、60kの画像をサンプリングした。
本研究では,データセットの冗長性を低減するためのアクティブラーニングフレームワークを実装し,モデルのトレーニングに最適なフレーム群を求める。
60k画像をさらに1.1k画像に蒸留し、プライバシーの匿名化後に公開します。
当社の知識を最大限活用するための自動運転に焦点を当てた、気象と光レベルの分類に関する公開データセットはありません。
気象分類に使用されるベースラインのResNet18ネットワークは、2つの非音響気象分類公開データセットにおいて最先端の結果を得るが、提案データセットの精度は著しく低く、飽和せず、さらなる研究が必要であることを示す。
関連論文リスト
- LoLI-Street: Benchmarking Low-Light Image Enhancement and Beyond [37.47964043913622]
先進都市における街路シーンの低照度画像と高露光画像が33k対のLoLI-Street(Low-Light Images of Streets)を新たに導入した。
LoLI-Streetデータセットはまた、実環境下でLLIEモデルをテストするための1,000の実際の低照度テストイメージも備えている。
論文 参考訳(メタデータ) (2024-10-13T13:11:56Z) - AllWeatherNet:Unified Image enhancement for autonomous driving under adverse weather and lowlight-conditions [24.36482818960804]
本稿では,悪条件により劣化した視覚的品質と明度を改善する方法を提案する。
我々の手法であるAllWeather-Netは、新しい階層型アーキテクチャを用いて、すべての悪条件をまたいで画像を強化する。
再学習することなく、最大3.9%のmIoU改善を達成し、未確認領域に適用することで、モデルの一般化能力を示す。
論文 参考訳(メタデータ) (2024-09-03T16:47:01Z) - Enhancing Autonomous Vehicle Perception in Adverse Weather through Image Augmentation during Semantic Segmentation Training [0.0]
我々は,エンコーダ・デコーダUNetモデルを訓練し,セマンティックセグメンテーション拡張を行った。
天気データに基づいてトレーニングされたモデルは、晴れた日を除いて、すべての条件でトレーニングされたデータよりも著しく損失が小さい。
論文 参考訳(メタデータ) (2024-08-14T00:08:28Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Learning Real-World Image De-Weathering with Imperfect Supervision [57.748585821252824]
既存の現実世界のデヒータリングデータセットは、接地トラス画像と入力された劣化画像の間に、一貫性のない照明、位置、テクスチャを示すことが多い。
我々は、入力劣化画像と可能な限り一貫性のある擬似ラベルを生成するための一貫性ラベルコンストラクタ(CLC)を開発した。
我々は,従来の不完全ラベルと擬似ラベルを組み合わせることで,情報割当戦略による脱ウェザリングモデルを共同で監督する。
論文 参考訳(メタデータ) (2023-10-23T14:02:57Z) - Counting Crowds in Bad Weather [68.50690406143173]
本研究では,悪天候シナリオにおいて,ロバストな群集カウント手法を提案する。
モデルでは,外見のバリエーションが大きいことを考慮し,効果的な特徴と適応的なクエリを学習する。
実験の結果,提案アルゴリズムは,ベンチマークデータセット上で異なる気象条件下での群集のカウントに有効であることが示唆された。
論文 参考訳(メタデータ) (2023-06-02T00:00:09Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - NoiSER: Noise is All You Need for Enhancing Low-Light Images Without
Task-Related Data [103.04999391668753]
タスク関連のトレーニングデータなしで、低照度画像を拡張できることが示される。
技術的には、アンダーラインノイズと呼ばれる新しい、魔法的で、効果的で効率的な方法を提案する。
我々のNoiSERは、量的および視覚的な結果の観点から、現在のタスク関連データに基づくLLIEモデルと非常に競合しています。
論文 参考訳(メタデータ) (2022-11-09T06:18:18Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - DAWN: Vehicle Detection in Adverse Weather Nature Dataset [4.09920839425892]
本研究では,DAWNと呼ばれる各種気象条件下で収集した実世界の画像からなる新しいデータセットを提案する。
このデータセットは、実際の交通環境から1000枚の画像を集め、霧、雪、雨、砂嵐の4つの天候条件に分けられる。
このデータは,車両検知システムの性能に及ぼす悪天候の影響の解明に有効である。
論文 参考訳(メタデータ) (2020-08-12T15:48:49Z) - CloudCast: A Satellite-Based Dataset and Baseline for Forecasting Clouds [0.0]
本稿では,CloudCast'と呼ばれる新しい衛星ベースのデータセットを提案する。
画像は70,080枚で、雲の種類は10種類あり、大気の複数の層がピクセルレベルでアノテートされている。
データセットの空間解像度は928 x 1530ピクセル(1ピクセルあたり3x3km)で、2017-01-01から2018-12-31までのフレーム間隔は15分である。
論文 参考訳(メタデータ) (2020-07-15T20:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。