論文の概要: The NEOLIX Open Dataset for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2011.13528v2
- Date: Thu, 28 Jan 2021 06:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:14:42.462257
- Title: The NEOLIX Open Dataset for Autonomous Driving
- Title(参考訳): NEOLIXによる自動運転のためのオープンデータセット
- Authors: Lichao Wang, Lanxin Lei, Hongli Song, Weibao Wang
- Abstract要約: 自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドラベル付き約30,000フレームと、アノテーション付き600k以上の3Dバウンディングボックスが含まれています。
- 参考スコア(独自算出の注目度): 1.4091801425319965
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the gradual maturity of 5G technology,autonomous driving technology has
attracted moreand more attention among the research commu-nity. Autonomous
driving vehicles rely on the co-operation of artificial intelligence, visual
comput-ing, radar, monitoring equipment and GPS, whichenables computers to
operate motor vehicles auto-matically and safely without human
interference.However, the large-scale dataset for training andsystem evaluation
is still a hot potato in the devel-opment of robust perception models. In this
paper,we present the NEOLIX dataset and its applica-tions in the autonomous
driving area. Our datasetincludes about 30,000 frames with point cloud la-bels,
and more than 600k 3D bounding boxes withannotations. The data collection
covers multipleregions, and various driving conditions, includingday, night,
dawn, dusk and sunny day. In orderto label this complete dataset, we developed
vari-ous tools and algorithms specified for each task tospeed up the labelling
process. It is expected thatour dataset and related algorithms can support
andmotivate researchers for the further developmentof autonomous driving in the
field of computer vi-sion.
- Abstract(参考訳): 5g技術の段階的な成熟により、自動運転技術は研究機関の間でますます注目を集めている。
自動運転車は、人工知能、視覚計算、レーダー、監視機器、gpsの協力により、人間の干渉なしに自動かつ安全に自動車を操作することができるが、しかしながら、トレーニングおよびシステム評価のための大規模データセットは、ロバストな知覚モデルのデベルオプションにおいて依然としてホットポテトである。
本稿では,自律走行領域におけるNEOLIXデータセットとその応用について述べる。
私たちのデータセットには、ポイントクラウドのラベル付き約30,000フレームと、注釈付き600k以上の3Dバウンディングボックスが含まれています。
データ収集には複数の地域があり、昼、夜、夜明け、夕暮れ、晴れた日など様々な運転条件がある。
この完全なデータセットをラベル付けするために、各タスクに指定された可変ツールとアルゴリズムを開発し、ラベル付けプロセスを高速化した。
コンピュータビジョンの分野における自動運転のさらなる発展のために、データセットと関連するアルゴリズムが研究者を支援し、動機付けることが期待されている。
関連論文リスト
- Data-Centric Evolution in Autonomous Driving: A Comprehensive Survey of
Big Data System, Data Mining, and Closed-Loop Technologies [16.283613452235976]
ボトルネックを克服する鍵は、データ中心の自動運転技術にある。
効率的なデータ中心のAD技術を構築する方法に関して、体系的な知識と深い理解が欠如しています。
この記事では、最先端のデータ駆動自動運転技術について、精力的に検討する。
論文 参考訳(メタデータ) (2024-01-23T16:28:30Z) - RainSD: Rain Style Diversification Module for Image Synthesis
Enhancement using Feature-Level Style Distribution [5.500457283114346]
本稿では,実際の道路データセットBDD100Kから発生するセンサブロックを用いた道路合成データセットを提案する。
このデータセットを用いて、自律運転のための多様なマルチタスクネットワークの劣化を評価し、分析した。
深層ニューラルネットワークを用いた自動運転車の認識システムの性能劣化傾向を深く分析した。
論文 参考訳(メタデータ) (2023-12-31T11:30:42Z) - Open-sourced Data Ecosystem in Autonomous Driving: the Present and Future [130.87142103774752]
このレビューは、70以上のオープンソースの自動運転データセットを体系的に評価する。
高品質なデータセットの作成の基礎となる原則など、さまざまな側面に関する洞察を提供する。
また、解決を保障する科学的、技術的課題も検討している。
論文 参考訳(メタデータ) (2023-12-06T10:46:53Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - DOLPHINS: Dataset for Collaborative Perception enabled Harmonious and
Interconnected Self-driving [19.66714697653504]
V2Xネットワークは、自動運転における協調的な認識を可能にしている。
データセットの欠如は、協調認識アルゴリズムの開発を著しく妨げている。
DOLPHINS: cOllaborative Perception を実現するためのデータセットである Harmonious と Inter connected Self-driving をリリースする。
論文 参考訳(メタデータ) (2022-07-15T17:07:07Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - KITTI-360: A Novel Dataset and Benchmarks for Urban Scene Understanding
in 2D and 3D [67.50776195828242]
KITTI-360は、よりリッチな入力モダリティ、包括的なセマンティックインスタンスアノテーション、正確なローカライゼーションを含む郊外の運転データセットである。
その結果,150k以上のセマンティクスとインスタンスのアノテート画像と1Bのアノテート3Dポイントが得られた。
我々は、同じデータセット上のコンピュータビジョン、グラフィックス、ロボット工学の問題を含む、モバイル知覚に関連するいくつかのタスクのベンチマークとベースラインを構築した。
論文 参考訳(メタデータ) (2021-09-28T00:41:29Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。