論文の概要: openDD: A Large-Scale Roundabout Drone Dataset
- arxiv url: http://arxiv.org/abs/2007.08463v1
- Date: Thu, 16 Jul 2020 17:01:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-09 22:31:45.982445
- Title: openDD: A Large-Scale Roundabout Drone Dataset
- Title(参考訳): openDD: 大規模なドローンデータセット
- Authors: Antonia Breuer, Jan-Aike Term\"ohlen, Silviu Homoceanu, Tim
Fingscheidt
- Abstract要約: 84,774個の軌跡を正確に追跡し、7つのラウンドアバウンドのHDマップデータを含むオープンDDデータセットを紹介した。
OpenDDデータセットは、501回の飛行でドローンが撮影した画像を使用して注釈付けされ、62時間以上の軌道データで合計される。
今日現在、openDDはドローンの観点から記録された、公開可能なトラジェクトリデータセットとしては最大であり、同等のデータセットは最大で17時間である。
- 参考スコア(独自算出の注目度): 29.03989826476959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Analyzing and predicting the traffic scene around the ego vehicle has been
one of the key challenges in autonomous driving. Datasets including the
trajectories of all road users present in a scene, as well as the underlying
road topology are invaluable to analyze the behavior of the different traffic
participants. The interaction between the various traffic participants is
especially high in intersection types that are not regulated by traffic lights,
the most common one being the roundabout.
We introduce the openDD dataset, including 84,774 accurately tracked
trajectories and HD map data of seven different roundabouts. The openDD dataset
is annotated using images taken by a drone in 501 separate flights, totalling
in over 62 hours of trajectory data. As of today, openDD is by far the largest
publicly available trajectory dataset recorded from a drone perspective, while
comparable datasets span 17 hours at most.
The data is available, for both commercial and noncommercial use, at:
http://www.l3pilot.eu/openDD.
- Abstract(参考訳): ego車両周辺の交通状況の分析と予測は、自動運転における重要な課題の1つだ。
シーン内に存在するすべての道路利用者の軌跡を含むデータセットと基盤となる道路トポロジは、異なる交通参加者の行動を分析するのに有用である。
様々な交通参加者間の相互作用は、信号機によって規制されていない交差点タイプで特に高く、最も一般的なものはラウンドアバウトである。
84,774個のトラジェクタと7種類のラウンドアラウンドのhdマップデータを含むopenddデータセットを紹介する。
OpenDDデータセットは、501回の飛行でドローンが撮影した画像を使用して注釈付けされ、62時間以上の軌道データで合計される。
現在、openddはドローンの観点から記録されている最大の軌道データセットであり、比較可能なデータセットは最大17時間に及ぶ。
データは、商用および非商用の両方で利用可能である。
関連論文リスト
- V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [47.55064735186109]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、20Kの4Dレーダデータで構成され、5つのカテゴリに350Kの注釈付きボックスが含まれている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - The IMPTC Dataset: An Infrastructural Multi-Person Trajectory and
Context Dataset [4.413278371057897]
市内の交差点は、怪我や致命的な事故で最も重要な交通エリアである。
われわれは、ドイツのインテリジェントな公共都市交差点と視覚センサー技術を使用している。
得られたデータセットは8時間の計測データから構成される。
論文 参考訳(メタデータ) (2023-07-12T13:46:20Z) - A9 Intersection Dataset: All You Need for Urban 3D Camera-LiDAR Roadside
Perception [20.10416681832639]
A9 Intersectionデータセットはラベル付きLiDAR点雲と同期カメラ画像で構成されている。
私たちのデータセットは4.8kの画像と57.4k以上の3Dボックスを手動でラベル付けした点雲で構成されています。
論文 参考訳(メタデータ) (2023-06-15T16:39:51Z) - ROCO: A Roundabout Traffic Conflict Dataset [65.55451440776098]
実世界のトラフィック競合データセットであるROCOを導入し分析する。
データはミシガン州アンアーバーのセント・セントとW・エルズワースの交差点にある2車線のラウンドアラウンドで収集される。
2021年8月から2021年10月までの合計557回の交通事故と17回の交通事故が収集された。
論文 参考訳(メタデータ) (2023-03-01T15:09:45Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - SIND: A Drone Dataset at Signalized Intersection in China [24.177976559875066]
本稿では,中国天津市で典型的な2相信号化交差点を選定する。
パイプラインはSIND(Signalized Intersection)を構築するために設計されており、7種類の13,000以上のTPを含む7時間の録音を含む。
SINDは、トラヒックライト状態、モーションパラメータ、High Definition(HD)マップなど、より包括的な情報を提供する。
論文 参考訳(メタデータ) (2022-09-06T08:49:44Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - The Pedestrian Patterns Dataset [11.193504036335503]
データセットは、異なる特定のタイムスロットから1週間、同じ3つのルートを繰り返すことで収集された。
データセットの目的は、横断するルートに沿って異なる時間に、社会的および歩行者の行動パターンをキャプチャすることである。
論文 参考訳(メタデータ) (2020-01-06T23:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。