論文の概要: IDD-AW: A Benchmark for Safe and Robust Segmentation of Drive Scenes in
Unstructured Traffic and Adverse Weather
- arxiv url: http://arxiv.org/abs/2311.14459v1
- Date: Fri, 24 Nov 2023 13:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 15:27:53.595601
- Title: IDD-AW: A Benchmark for Safe and Robust Segmentation of Drive Scenes in
Unstructured Traffic and Adverse Weather
- Title(参考訳): IDD-AW:非構造交通・逆気象におけるドライブシーンの安全・ロバストセグメンテーションベンチマーク
- Authors: Furqan Ahmed Shaik, Abhishek Malreddy, Nikhil Reddy Billa, Kunal
Chaudhary, Sunny Manchanda, Girish Varma
- Abstract要約: IDD-AWデータセットを導入し、画素レベルのアノテーションで5000対の高品質な画像を提供する。
IDD-AWにおけるセマンティックセグメンテーションのための最先端モデルのベンチマークを行う。
我々は,危険予測をペナルティ化する階層的データセットに対して,"Safe mean Intersection over Union (Safe mIoU)"と呼ばれる新しい指標を提案する。
- 参考スコア(独自算出の注目度): 1.6492989697868894
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale deployment of fully autonomous vehicles requires a very high
degree of robustness to unstructured traffic, and weather conditions, and
should prevent unsafe mispredictions. While there are several datasets and
benchmarks focusing on segmentation for drive scenes, they are not specifically
focused on safety and robustness issues. We introduce the IDD-AW dataset, which
provides 5000 pairs of high-quality images with pixel-level annotations,
captured under rain, fog, low light, and snow in unstructured driving
conditions. As compared to other adverse weather datasets, we provide i.) more
annotated images, ii.) paired Near-Infrared (NIR) image for each frame, iii.)
larger label set with a 4-level label hierarchy to capture unstructured traffic
conditions. We benchmark state-of-the-art models for semantic segmentation in
IDD-AW. We also propose a new metric called ''Safe mean Intersection over Union
(Safe mIoU)'' for hierarchical datasets which penalizes dangerous
mispredictions that are not captured in the traditional definition of mean
Intersection over Union (mIoU). The results show that IDD-AW is one of the most
challenging datasets to date for these tasks. The dataset and code will be
available here: http://iddaw.github.io.
- Abstract(参考訳): 完全自動運転車の大規模展開には、構造化されていない交通や天候条件に対して非常に高い堅牢性が必要であり、安全でない誤予測を防ぐ必要がある。
ドライブシーンのセグメンテーションに焦点を当てたデータセットやベンチマークはいくつかあるが、安全性と堅牢性の問題に特に重点を置いていない。
IDD-AWデータセットは, 降雨, 霧, 低光, 雪などの非構造運転条件下で, 5000対の高品質な画像に画素レベルのアノテーションを付加する。
他の悪天候データセットと比較すると、i。
) より注釈付き画像, ii。
) フレーム毎のNIR(Near-Infrared)画像のペア化,iii。
) 非構造化トラフィック条件をキャプチャする4レベルラベル階層を持つより大きなラベルセット。
IDD-AWにおけるセマンティックセグメンテーションのための最先端モデルのベンチマークを行う。
また,miou(safe mean intersection over union)の従来の定義では捉えられていない危険な誤予測を罰する階層的データセットに対して,'safe mean intersection over union (safe miou)'という新しい指標を提案する。
その結果、idd-awは、これらのタスクでこれまでで最も難しいデータセットの1つであることが判明した。
データセットとコードはここで入手できる。
関連論文リスト
- XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - MUSES: The Multi-Sensor Semantic Perception Dataset for Driving under Uncertainty [46.369657697892634]
MUSES(MUlti-Sensor Semantic 知覚データセット)を導入する。
データセットはフレームカメラ、ライダー、レーダー、イベントカメラ、IMU/GNSSセンサーを統合する。
MUSESは、様々な視覚条件下でモデルを評価するのに、トレーニングと挑戦の両方に効果的であることを証明している。
論文 参考訳(メタデータ) (2024-01-23T13:43:17Z) - SSCBench: A Large-Scale 3D Semantic Scene Completion Benchmark for Autonomous Driving [87.8761593366609]
SSCBenchは、広く使用されている自動車データセットのシーンを統合するベンチマークである。
我々は、単眼、三眼、クラウド入力を用いて、性能ギャップを評価するモデルをベンチマークする。
クロスドメインの一般化テストを簡単にするために、さまざまなデータセットにまたがったセマンティックラベルを統一しています。
論文 参考訳(メタデータ) (2023-06-15T09:56:33Z) - A Fine-Grained Vehicle Detection (FGVD) Dataset for Unconstrained Roads [29.09167268252761]
本研究では,自動車に搭載された移動カメラから捉えた,野生におけるファイングラインド車両検出データセットについて紹介する。
シーンイメージは5502枚あり、3レベル階層に整理された複数の車両の210個の細粒度ラベルがある。
以前の分類データセットには、さまざまな種類の車も含まれていたが、FGVDデータセットでは、二輪車、オートリックショー、トラックを分類するための新しいクラスラベルが導入されている。
論文 参考訳(メタデータ) (2022-12-30T06:50:15Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Drive&Segment: Unsupervised Semantic Segmentation of Urban Scenes via
Cross-modal Distillation [32.33170182669095]
本研究は,自動車が収集した生の非キュレートデータからのみ,手動のアノテーションを使わずに,都市景観における画素単位のセマンティックイメージのセマンティックセマンティックセマンティクスの学習について検討する。
本稿では,同期化LiDARと画像データを利用した意味的イメージセグメンテーションのクロスモーダルな教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-21T17:35:46Z) - ESS: Learning Event-based Semantic Segmentation from Still Images [48.37422967330683]
イベントベースのセマンティックセグメンテーションは、センサーの新規性と高品質なラベル付きデータセットの欠如により、まだ初期段階にある。
既存のラベル付き画像データセットから、教師なしドメイン適応(UDA)を介してラベルなしイベントにセマンティックセグメンテーションタスクを転送するESSを導入する。
イベントベースのセマンティックセグメンテーションのさらなる研究を促進するために、我々はDSEC-Semanticを導入した。
論文 参考訳(メタデータ) (2022-03-18T15:30:01Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - ACDC: The Adverse Conditions Dataset with Correspondences for Robust Semantic Driving Scene Perception [86.03633244019954]
レベル5の運転自動化には、任意の条件下で入力画像を解析できる堅牢な視覚認識システムが必要である。
本稿では,視覚条件に対する多種多様な意味認識タスクの訓練と試験のための逆条件データセットであるACDCを紹介する。
詳細な実証研究は、ACDCの有害領域が最先端の監督と教師なしのアプローチにもたらす課題を実証している。
論文 参考訳(メタデータ) (2021-04-27T18:00:05Z) - ISSAFE: Improving Semantic Segmentation in Accidents by Fusing
Event-based Data [34.36975697486129]
本稿では,事故シナリオにおけるセマンティックセグメンテーションに関する課題を,事故データセットDADA-segとともに提示する。
イベントベースのマルチモーダルセグメンテーションアーキテクチャISSAFEを提案する。
提案手法は, 提案した評価セットに対して+8.2% mIoUの性能向上を達成し, 10以上の最先端セグメンテーション法を克服する。
論文 参考訳(メタデータ) (2020-08-20T14:03:34Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。