論文の概要: SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving
- arxiv url: http://arxiv.org/abs/2302.12966v1
- Date: Sat, 25 Feb 2023 02:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 19:45:06.955334
- Title: SUPS: A Simulated Underground Parking Scenario Dataset for Autonomous
Driving
- Title(参考訳): SUPS: 自動運転のためのシミュレーション地下駐車シナリオデータセット
- Authors: Jiawei Hou, Qi Chen, Yurong Cheng, Guang Chen, Xiangyang Xue, Taiping
Zeng, Jian Pu
- Abstract要約: SUPSは地下自動駐車のシミュレーションデータセットである。
複数のセンサーと連続したイメージに合わせた複数のセマンティックラベルを備えた複数のタスクをサポートする。
また、我々のデータセット上で、最先端のSLAMアルゴリズムと知覚モデルを評価する。
- 参考スコア(独自算出の注目度): 41.221988979184665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic underground parking has attracted considerable attention as the
scope of autonomous driving expands. The auto-vehicle is supposed to obtain the
environmental information, track its location, and build a reliable map of the
scenario. Mainstream solutions consist of well-trained neural networks and
simultaneous localization and mapping (SLAM) methods, which need numerous
carefully labeled images and multiple sensor estimations. However, there is a
lack of underground parking scenario datasets with multiple sensors and
well-labeled images that support both SLAM tasks and perception tasks, such as
semantic segmentation and parking slot detection. In this paper, we present
SUPS, a simulated dataset for underground automatic parking, which supports
multiple tasks with multiple sensors and multiple semantic labels aligned with
successive images according to timestamps. We intend to cover the defect of
existing datasets with the variability of environments and the diversity and
accessibility of sensors in the virtual scene. Specifically, the dataset
records frames from four surrounding fisheye cameras, two forward pinhole
cameras, a depth camera, and data from LiDAR, inertial measurement unit (IMU),
GNSS. Pixel-level semantic labels are provided for objects, especially ground
signs such as arrows, parking lines, lanes, and speed bumps. Perception, 3D
reconstruction, depth estimation, and SLAM, and other relative tasks are
supported by our dataset. We also evaluate the state-of-the-art SLAM algorithms
and perception models on our dataset. Finally, we open source our virtual 3D
scene built based on Unity Engine and release our dataset at
https://github.com/jarvishou829/SUPS.
- Abstract(参考訳): 自動運転の分野が拡大するにつれて、自動地下駐車が注目されている。
自動走行車は、環境情報を取得し、その位置を追跡し、シナリオの信頼性の高いマップを構築する。
メインストリームソリューションは、よく訓練されたニューラルネットワークと同時ローカライゼーションとマッピング(SLAM)メソッドで構成され、慎重にラベル付けされた多数の画像と複数のセンサー推定が必要である。
しかし、複数のセンサーを備えた地下駐車シナリオデータセットが欠如しており、SLAMタスクとセマンティックセグメンテーションやパーキングスロット検出といった知覚タスクの両方をサポートする。
本稿では,複数のセンサと複数のセマンティックラベルで複数のタスクをサポートし,タイムスタンプに従って連続した画像に整列する地下自動駐車シミュレーションデータセットSUPSを提案する。
私たちは、仮想シーンにおける既存のデータセットの欠陥、環境の変化、センサーの多様性とアクセシビリティについてカバーするつもりです。
具体的には、周囲の魚眼カメラ4台、前方のピンホールカメラ2台、深度カメラ1台、LiDAR、慣性測定ユニット(IMU)、GNSSのデータを記録している。
ピクセルレベルのセマンティックラベルはオブジェクト、特に矢印、駐車線、車線、スピードバンプなどのグラウンドサインに対して提供される。
認識,3次元再構成,深度推定,SLAMなどの相対的タスクをデータセットでサポートしています。
また、我々のデータセット上で最先端のSLAMアルゴリズムと知覚モデルを評価する。
最後に、Unity Engineをベースに構築された仮想3Dシーンをオープンソース化し、データセットをhttps://github.com/jarvishou829/SUPSでリリースします。
関連論文リスト
- SemanticSpray++: A Multimodal Dataset for Autonomous Driving in Wet Surface Conditions [10.306226508237348]
SemanticSpray++データセットは、湿った表面条件下でのハイウェイのようなシナリオのカメラ、LiDAR、レーダーデータのためのラベルを提供する。
3つのセンサーのモダリティをラベル付けすることで、データセットは、異なる知覚方法のパフォーマンスを分析するための包括的なテストベッドを提供する。
論文 参考訳(メタデータ) (2024-06-14T11:46:48Z) - Neural Rendering based Urban Scene Reconstruction for Autonomous Driving [8.007494499012624]
ニューラルな暗黙表面と放射場を組み合わせたフレームワークを用いたマルチモーダル3次元シーン再構成を提案する。
Dense 3Dリコンストラクションは、自動アノテーションバリデーションを含む自動走行に多くの応用がある。
我々は,挑戦的な自動車シーンの質的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-02-09T23:20:23Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。