論文の概要: SELMA: SEmantic Large-scale Multimodal Acquisitions in Variable Weather,
Daytime and Viewpoints
- arxiv url: http://arxiv.org/abs/2204.09788v1
- Date: Wed, 20 Apr 2022 21:22:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 12:36:13.795830
- Title: SELMA: SEmantic Large-scale Multimodal Acquisitions in Variable Weather,
Daytime and Viewpoints
- Title(参考訳): selma: 天候, 日中, 視点による意味的大規模マルチモーダル獲得
- Authors: Paolo Testolina and Francesco Barbato, Umberto Michieli, Marco
Giordani, Pietro Zanuttigh, Michele Zorzi
- Abstract要約: セマンティックセグメンテーションのための新しいデータセットであるSELMAを紹介する。
RGB、ディープ、セマンティックカメラ、LiDARを含む24種類のセンサーから取得された30万以上のユニークなウェイポイントを含んでいる。
CARLAは、自動運転シナリオで合成データを生成するためのオープンソースのシミュレータである。
- 参考スコア(独自算出の注目度): 36.57734409668748
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate scene understanding from multiple sensors mounted on cars is a key
requirement for autonomous driving systems. Nowadays, this task is mainly
performed through data-hungry deep learning techniques that need very large
amounts of data to be trained. Due to the high cost of performing segmentation
labeling, many synthetic datasets have been proposed. However, most of them
miss the multi-sensor nature of the data, and do not capture the significant
changes introduced by the variation of daytime and weather conditions. To fill
these gaps, we introduce SELMA, a novel synthetic dataset for semantic
segmentation that contains more than 30K unique waypoints acquired from 24
different sensors including RGB, depth, semantic cameras and LiDARs, in 27
different atmospheric and daytime conditions, for a total of more than 20M
samples. SELMA is based on CARLA, an open-source simulator for generating
synthetic data in autonomous driving scenarios, that we modified to increase
the variability and the diversity in the scenes and class sets, and to align it
with other benchmark datasets. As shown by the experimental evaluation, SELMA
allows the efficient training of standard and multi-modal deep learning
architectures, and achieves remarkable results on real-world data. SELMA is
free and publicly available, thus supporting open science and research.
- Abstract(参考訳): 車に搭載された複数のセンサーからの正確なシーン理解は、自動運転システムにとって重要な要件である。
今日では、このタスクは主に、トレーニングに非常に大量のデータを必要とするデータ・ハングリーなディープラーニング技術によって行われる。
セグメンテーションラベリングのコストが高いため、多くの合成データセットが提案されている。
しかし、これらのデータの多くはマルチセンサーの性質を見逃しており、昼間や天候の変化によってもたらされる大きな変化を捉えていない。
これらのギャップを埋めるために,SELMAは,RGB,深度,セマンティックカメラ,LiDARを含む24種類のセンサから取得した30万以上の独自のウェイポイントを含む,セマンティックセグメンテーションのための新しい合成データセットである。
SELMAは、自律運転シナリオで合成データを生成するためのオープンソースのシミュレータであるCARLAをベースとして、シーンやクラスセットの多様性と多様性を高め、それを他のベンチマークデータセットと整合させるように修正しました。
実験結果から示すように、SELMAは標準およびマルチモーダルなディープラーニングアーキテクチャの効率的なトレーニングを可能にし、実世界のデータに対して顕著な結果が得られる。
SELMAは無料で公開されており、オープンサイエンスと研究をサポートしている。
関連論文リスト
- SCOPE: A Synthetic Multi-Modal Dataset for Collective Perception Including Physical-Correct Weather Conditions [0.5026434955540995]
SCOPEは、現実的なカメラとLiDARモデル、パラメータ化および物理的に正確な気象シミュレーションを組み込んだ最初の合成マルチモーダルデータセットである。
データセットには、40以上のシナリオから17,600フレームが含まれており、最大24の協調エージェント、インフラセンサー、自転車や歩行者を含む受動的トラフィックが含まれている。
論文 参考訳(メタデータ) (2024-08-06T09:35:50Z) - SCaRL- A Synthetic Multi-Modal Dataset for Autonomous Driving [0.0]
本稿では、自律運転ソリューションのトレーニングと検証を可能にするために、合成生成された新しいマルチモーダルデータセットであるSCaRLを提案する。
SCaRLはCARLA Simulatorに基づく大規模なデータセットであり、多様な動的シナリオとトラフィック条件のためのデータを提供する。
論文 参考訳(メタデータ) (2024-05-27T10:31:26Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Shared Manifold Learning Using a Triplet Network for Multiple Sensor
Translation and Fusion with Missing Data [2.452410403088629]
コントラスト学習に基づくマルチモーダルアライメントネットワーク(CoMMANet)を提案する。
提案アーキテクチャでは,マルチモーダルな三重項オートエンコーダを用いて,各不均一なモジュラリティの同一クラスのサンプルが互いに近接してマッピングされるように潜在空間をクラスタリングする。
論文 参考訳(メタデータ) (2022-10-25T20:22:09Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - IDDA: a large-scale multi-domain dataset for autonomous driving [16.101248613062292]
本稿では,100以上の異なる視覚領域を持つセマンティックセグメンテーションのための大規模合成データセットを提案する。
このデータセットは、さまざまな天候や視点条件下でのトレーニングとテストデータのドメインシフトの課題に明示的に対処するために作成されている。
論文 参考訳(メタデータ) (2020-04-17T15:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。