論文の概要: EMT: A Visual Multi-Task Benchmark Dataset for Autonomous Driving in the Arab Gulf Region
- arxiv url: http://arxiv.org/abs/2502.19260v2
- Date: Sun, 02 Mar 2025 06:08:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-04 13:05:26.847779
- Title: EMT: A Visual Multi-Task Benchmark Dataset for Autonomous Driving in the Arab Gulf Region
- Title(参考訳): EMT:アラブ湾地域における自律運転のための視覚的マルチタスクベンチマークデータセット
- Authors: Nadya Abdel Madjid, Murad Mebrahtu, Abdelmoamen Nasser, Bilal Hassan, Naoufel Werghi, Jorge Dias, Majid Khonji,
- Abstract要約: Emirates Multi-Taskデータセットは、アラビア湾地域で収集された自動運転のための最初の公開データセットである。
ダッシュカメラの見地から3万枚以上のフレームと、約150kmの走行ルートをカバーする570,000個の注釈付きバウンディングボックスを含んでいる。
- 参考スコア(独自算出の注目度): 9.357294962788524
- License:
- Abstract: This paper introduces the Emirates Multi-Task (EMT) dataset - the first publicly available dataset for autonomous driving collected in the Arab Gulf region. The EMT dataset captures the unique road topology, high traffic congestion, and distinctive characteristics of the Gulf region, including variations in pedestrian clothing and weather conditions. It contains over 30,000 frames from a dash-camera perspective, along with 570,000 annotated bounding boxes, covering approximately 150 kilometers of driving routes. The EMT dataset supports three primary tasks: tracking, trajectory forecasting and intention prediction. Each benchmark dataset is complemented with corresponding evaluations: (1) multi-agent tracking experiments, focusing on multi-class scenarios and occlusion handling; (2) trajectory forecasting evaluation using deep sequential and interaction-aware models; and (3) intention benchmark experiments conducted for predicting agents intentions from observed trajectories. The dataset is publicly available at avlab.io/emt-dataset, and pre-processing scripts along with evaluation models can be accessed at github.com/AV-Lab/emt-dataset.
- Abstract(参考訳): 本稿では,アラビア湾地域で収集された自動運転のための最初の公開データセットであるEmirates Multi-Task(EMT)データセットを紹介する。
EMTデータセットは、独自の道路トポロジ、交通渋滞、および歩行者服や気象条件の変化を含む湾岸地域の特徴を捉えている。
ダッシュカメラの見地から3万枚以上のフレームと、約150kmの走行ルートをカバーする570,000個の注釈付きバウンディングボックスを含んでいる。
EMTデータセットは、追跡、軌道予測、意図予測の3つの主要なタスクをサポートする。
各ベンチマークデータセットは,(1)マルチエージェント追跡実験,(2)ディープシーケンシャルおよびインタラクション認識モデルを用いた軌道予測評価,(3)観測された軌道からエージェントの意図を予測するための意図的ベンチマーク実験など,対応する評価を補完する。
データセットはavlab.io/emt-datasetで公開されており、評価モデルとともに事前処理スクリプトはgithub.com/AV-Lab/emt-datasetでアクセスすることができる。
関連論文リスト
- Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - An Automated Analysis Framework for Trajectory Datasets [0.0]
近年,自動走行車の安全性検証において,道路利用者の軌道データセットの重要性が高まっている。
10万以上のトラックを持ついくつかの自然主義的な軌道データセットがリリースされ、それに続くものもリリースされる。
この量のデータを考えると、これらのデータセットを奥行きで簡単に比較できる必要がある。
論文 参考訳(メタデータ) (2022-02-12T10:55:53Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - STINet: Spatio-Temporal-Interactive Network for Pedestrian Detection and
Trajectory Prediction [24.855059537779294]
本稿では、新しいエンドツーエンド2段階ネットワーク:spatio--Interactive Network(STINet)を提案する。
歩行者の3次元形状に加えて,歩行者ごとの時間情報をモデル化する。
提案手法は,1段目における現在位置と過去の位置の両方を予測し,各歩行者をフレーム間でリンクできるようにする。
論文 参考訳(メタデータ) (2020-05-08T18:43:01Z) - Action Sequence Predictions of Vehicles in Urban Environments using Map
and Social Context [152.0714518512966]
本研究は、現実の運転シナリオにおける周辺車両の今後の行動の順序を予測する問題について研究する。
最初のコントリビューションは、現実世界の運転シナリオに記録された軌跡をHDマップの助けを借りてアクションシーケンスに変換する自動手法である。
第2のコントリビューションは、よく知られたトラフィックエージェント追跡と予測データセットArgoverseへのメソッドの適用であり、結果として228,000のアクションシーケンスが生成される。
第3のコントリビューションは,交通エージェント,地図情報,社会状況の過去の位置と速度を,単一エンドツーエンドのトレーニング可能なニューラルネットワークに統合して,新たな行動シーケンス予測手法を提案することである。
論文 参考訳(メタデータ) (2020-04-29T14:59:58Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。