論文の概要: WEDGE: A multi-weather autonomous driving dataset built from generative
vision-language models
- arxiv url: http://arxiv.org/abs/2305.07528v1
- Date: Fri, 12 May 2023 14:42:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:31:46.778261
- Title: WEDGE: A multi-weather autonomous driving dataset built from generative
vision-language models
- Title(参考訳): WEDGE: 生成視覚言語モデルを用いた多天候自律走行データセット
- Authors: Aboli Marathe, Deva Ramanan, Rahee Walambe, Ketan Kotecha
- Abstract要約: 本稿では,視覚言語生成モデルを用いて生成した合成データセットWEDGEを紹介する。
WEDGEは16の極度の気象条件で3360枚の画像で構成され、16513個の境界ボックスを手動で注釈付けしている。
53.87%の検定精度と45.41mAPで分類・検出のためのベースライン性能を確立した。
- 参考スコア(独自算出の注目度): 51.61662672912017
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The open road poses many challenges to autonomous perception, including poor
visibility from extreme weather conditions. Models trained on good-weather
datasets frequently fail at detection in these out-of-distribution settings. To
aid adversarial robustness in perception, we introduce WEDGE (WEather images by
DALL-E GEneration): a synthetic dataset generated with a vision-language
generative model via prompting. WEDGE consists of 3360 images in 16 extreme
weather conditions manually annotated with 16513 bounding boxes, supporting
research in the tasks of weather classification and 2D object detection. We
have analyzed WEDGE from research standpoints, verifying its effectiveness for
extreme-weather autonomous perception. We establish baseline performance for
classification and detection with 53.87% test accuracy and 45.41 mAP. Most
importantly, WEDGE can be used to fine-tune state-of-the-art detectors,
improving SOTA performance on real-world weather benchmarks (such as DAWN) by
4.48 AP for well-generated classes like trucks. WEDGE has been collected under
OpenAI's terms of use and is released for public use under the CC BY-NC-SA 4.0
license. The repository for this work and dataset is available at
https://infernolia.github.io/WEDGE.
- Abstract(参考訳): 開けた道路は、極端な気象条件からの視界の低下など、自律的な認識に多くの課題をもたらす。
good-weatherデータセットでトレーニングされたモデルは、これらの分散設定ではしばしば検出に失敗する。
本稿では,視覚言語生成モデルを用いてプロンプトによって生成された合成データセットであるwedge (weather images by dall-e generation)を提案する。
WEDGEは16の極端気象条件で3360枚の画像で構成され、16513個の境界ボックスを手動でアノテートし、気象分類と2D物体検出のタスクの研究を支援する。
我々はWEDGEを研究の立場から分析し、超ウェザー自律認識の有効性を検証する。
53.87%のテスト精度と45.41マップによる分類と検出のベースライン性能を確立した。
最も重要な点として、WEDGEは最先端の検出器の微調整に使用でき、実際の気象指標(DAWNなど)のSOTA性能を4.48 APで改善している。
WEDGEはOpenAIのライセンスで収集され、CC BY-NC-SA 4.0ライセンスの下で一般公開されている。
この作業とデータセットのリポジトリはhttps://infernolia.github.io/WEDGEで公開されている。
関連論文リスト
- Commissioning An All-Sky Infrared Camera Array for Detection Of Airborne Objects [0.11703603440337004]
ガリレオ計画では、空を継続的に監視する多モード地上観測所を設計、建設、委託している。
鍵となる機器の1つは、8つの冷却されていない長波長のFLIRボソン640カメラを使用した全天型赤外線カメラアレイである。
各種気象条件に対する受入率(観測可能な航空機等)と検出効率(検出に成功している航空機等)を報告する。
おもちゃのアウトリーチは2次元再構成トラジェクトリーフラッグの大きな不純物に焦点を絞ったもので、トラジェクトリーの約16%をアウトリーチとして用いた。
論文 参考訳(メタデータ) (2024-11-12T17:31:51Z) - From Data to Insights: A Covariate Analysis of the IARPA BRIAR Dataset for Multimodal Biometric Recognition Algorithms at Altitude and Range [13.42292577384284]
本稿では,IARPA BRIARデータセットにおける全身バイオメトリックス性能の融合に着目し,UAVプラットフォーム,高度位置,最大1000mに焦点をあてる。
データセットには、屋内画像や制御された歩行記録と比較して、屋外ビデオが含まれている。
論文 参考訳(メタデータ) (2024-09-03T00:58:50Z) - From Blurry to Brilliant Detection: YOLOv5-Based Aerial Object Detection
with Super Resolution [4.107182710549721]
超解像度と適応型軽量YOLOv5アーキテクチャを組み合わせた革新的なアプローチを提案する。
実験により,小型で密集した物体の検出において,モデルの性能が優れていることを示した。
論文 参考訳(メタデータ) (2024-01-26T05:50:58Z) - Vision in adverse weather: Augmentation using CycleGANs with various
object detectors for robust perception in autonomous racing [70.16043883381677]
自律レースでは、天気は突然変化し、認識が著しく低下し、非効率な操作が引き起こされる。
悪天候の検知を改善するために、ディープラーニングベースのモデルは通常、そのような状況下でキャプチャされた広範なデータセットを必要とする。
本稿では,5つの最先端検出器のうち4つの性能向上を図るために,自動レース(CycleGANを用いた)における合成悪条件データセットを用いた手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T10:02:40Z) - Object Detection in Thermal Spectrum for Advanced Driver-Assistance
Systems (ADAS) [0.5156484100374058]
熱赤外スペクトルにおける物体検出は、低照度条件と異なる気象条件においてより信頼性の高いデータソースを提供する。
本稿では,高度運転支援システム(ADAS)の7つの異なるクラスを用いたサーマルビジョンにおける最先端のオブジェクト・ビジョン・フレームワークの探索と適用について述べる。
公開データセット上のトレーニング済みネットワーク変種は、3つの異なるテストアプローチでテストデータ上で検証される。
訓練されたネットワークの有効性は、未冷却のLWIRプロトタイプ熱カメラで捉えたローカル収集された新しいテストデータで検証される。
論文 参考訳(メタデータ) (2021-09-20T21:38:55Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Multi-View Radar Semantic Segmentation [3.2093811507874768]
自動車用レーダーは、周囲の物体の特性を測定する安価なアクティブセンサーである。
レーダー生データのサイズと複雑さのため、シーン理解にはほとんど使われない。
我々は,複数の新しいアーキテクチャとそれに伴う損失を提案し,レンジアングル・ドップラーレーダテンソルの複数の"ビュー"を分析し,意味的にセグメンテーションする。
論文 参考訳(メタデータ) (2021-03-30T09:56:41Z) - Speak2Label: Using Domain Knowledge for Creating a Large Scale Driver
Gaze Zone Estimation Dataset [55.391532084304494]
ワイルド・データセットのドライバ・ゲイズには、夕方を含む1日の異なる時間に撮影された586の録音が含まれている。
ワイルド・データセットのドライバ・ゲイズには338人の被験者がおり、年齢は18-63歳である。
論文 参考訳(メタデータ) (2020-04-13T14:47:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。