論文の概要: E2E Parking Dataset: An Open Benchmark for End-to-End Autonomous Parking
- arxiv url: http://arxiv.org/abs/2504.10812v1
- Date: Tue, 15 Apr 2025 02:21:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:07:04.083565
- Title: E2E Parking Dataset: An Open Benchmark for End-to-End Autonomous Parking
- Title(参考訳): E2Eパーキングデータセット: エンドツーエンドの自律駐車のためのオープンベンチマーク
- Authors: Kejia Gao, Liguo Zhou, Mingjun Liu, Alois Knoll,
- Abstract要約: エンドツーエンドの自律駐車のための高品質なデータセットを作成し、オープンソース化します。
元のモデルを用いて、平均位置と向きの誤差が低い85.16%の総合的な成功率を達成する。
- 参考スコア(独自算出の注目度): 4.858678769953548
- License:
- Abstract: End-to-end learning has shown great potential in autonomous parking, yet the lack of publicly available datasets limits reproducibility and benchmarking. While prior work introduced a visual-based parking model and a pipeline for data generation, training, and close-loop test, the dataset itself was not released. To bridge this gap, we create and open-source a high-quality dataset for end-to-end autonomous parking. Using the original model, we achieve an overall success rate of 85.16% with lower average position and orientation errors (0.24 meters and 0.34 degrees).
- Abstract(参考訳): エンドツーエンドの学習は、自律駐車に大きな可能性を示しているが、公開データセットの欠如により再現性とベンチマークが制限されている。
以前の作業では、ビジュアルベースのパーキングモデルと、データ生成、トレーニング、クローズループテストのためのパイプラインが導入されていたが、データセット自体はリリースされなかった。
このギャップを埋めるために、エンドツーエンドの自律駐車のための高品質なデータセットを作成し、オープンソース化します。
元のモデルを用いて、平均位置と向きの誤差(0.24メートル、0.34度)が低い85.16%の総合的な成功率を達成する。
関連論文リスト
- NAVSIM: Data-Driven Non-Reactive Autonomous Vehicle Simulation and Benchmarking [65.24988062003096]
我々は,視覚に基づく運転ポリシーをベンチマークするフレームワークであるNAVSIMを提案する。
我々のシミュレーションは非反応性であり、評価された政策と環境は互いに影響を与えない。
NAVSIMはCVPR 2024で開催され、143チームが433のエントリーを提出し、いくつかの新たな洞察を得た。
論文 参考訳(メタデータ) (2024-06-21T17:59:02Z) - Is Ego Status All You Need for Open-Loop End-to-End Autonomous Driving? [84.17711168595311]
エンドツーエンドの自動運転は、フルスタックの観点から自律性を目標とする、有望な研究の方向性として浮上している。
比較的単純な駆動シナリオを特徴とするnuScenesデータセットは、エンド・ツー・エンド・モデルにおける知覚情報の未使用化につながる。
予測軌跡が道路に付着するかどうかを評価するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-12-05T11:32:31Z) - PPD: A New Valet Parking Pedestrian Fisheye Dataset for Autonomous
Driving [18.71208933251644]
駐車歩行者のデータセットは、魚眼カメラで捕獲されたいくつかの特徴的なタイプの歩行者で構成されている。
歩行者検出ベースラインをPDDデータセット上に提示し、ベースラインを改善するために2つのデータ拡張手法を導入する。
論文 参考訳(メタデータ) (2023-09-20T01:55:19Z) - Image-Based Parking Space Occupancy Classification: Dataset and Baseline [0.0]
画像に基づく駐車スペース占有分類のための新しいデータセット: ACPDSを提案する。
以前のデータセットとは異なり、各イメージはユニークなビューから取り出され、体系的に注釈付けされ、列車内の駐車場、検証、テストセットはユニークである。
このデータセットを用いて、駐車スペース占有率分類のための単純なベースラインモデルを提案し、未確認駐車場における98%の精度を実現する。
論文 参考訳(メタデータ) (2021-07-26T13:23:21Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - One Million Scenes for Autonomous Driving: ONCE Dataset [91.94189514073354]
自律運転シナリオにおける3次元物体検出のためのONCEデータセットを提案する。
データは、利用可能な最大の3D自動運転データセットよりも20倍長い144時間の運転時間から選択される。
我々はONCEデータセット上で、様々な自己教師的・半教師的手法を再現し、評価する。
論文 参考訳(メタデータ) (2021-06-21T12:28:08Z) - Injecting Knowledge in Data-driven Vehicle Trajectory Predictors [82.91398970736391]
車両軌道予測タスクは、一般的に知識駆動とデータ駆動の2つの視点から取り組まれている。
本稿では,これら2つの視点を効果的に結合する「現実的残留ブロック」 (RRB) の学習を提案する。
提案手法は,残留範囲を限定し,その不確実性を考慮した現実的な予測を行う。
論文 参考訳(メタデータ) (2021-03-08T16:03:09Z) - PSDet: Efficient and Universal Parking Slot Detection [14.085693334348827]
リアルタイム駐車スロット検出は、バレット駐車システムにおいて重要な役割を担っている。
既存の手法は、現実世界のアプリケーションでしか成功しない。
不満足なパフォーマンスを考慮に入れている2つの理由を論じる。
romannumeral1: 利用可能なデータセットは多様性が限られており、一般化能力が低い。
論文 参考訳(メタデータ) (2020-05-12T03:06:25Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。