論文の概要: Automatic Odometry-Less OpenDRIVE Generation From Sparse Point Clouds
- arxiv url: http://arxiv.org/abs/2405.07544v1
- Date: Mon, 13 May 2024 08:26:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 14:24:56.640454
- Title: Automatic Odometry-Less OpenDRIVE Generation From Sparse Point Clouds
- Title(参考訳): スパース点雲からのオドメトリーレスオープンドライブ生成
- Authors: Leon Eisemann, Johannes Maucher,
- Abstract要約: 高解像度道路表現は、自動運転機能の成功の鍵となる要素である。
本稿では,ポイントクラウド情報のみに基づいて,現実的な道路表現を生成する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 1.3351610617039973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-resolution road representations are a key factor for the success of (highly) automated driving functions. These representations, for example, high-definition (HD) maps, contain accurate information on a multitude of factors, among others: road geometry, lane information, and traffic signs. Through the growing complexity and functionality of automated driving functions, also the requirements on testing and evaluation grow continuously. This leads to an increasing interest in virtual test drives for evaluation purposes. As roads play a crucial role in traffic flow, accurate real-world representations are needed, especially when deriving realistic driving behavior data. This paper proposes a novel approach to generate realistic road representations based solely on point cloud information, independent of the LiDAR sensor, mounting position, and without the need for odometry data, multi-sensor fusion, machine learning, or highly-accurate calibration. As the primary use case is simulation, we use the OpenDRIVE format for evaluation.
- Abstract(参考訳): 高解像度道路表現は(高度に)自動運転機能の成功の鍵となる要素である。
これらの表現、例えばHDマップは、道路形状、車線情報、交通標識など、様々な要因に関する正確な情報を含んでいる。
自動運転機能の複雑さと機能の向上を通じて、テストと評価の要件も継続的に増加します。
これにより、評価目的の仮想テストドライブへの関心が高まっている。
道路は交通流において重要な役割を担っているため、特に現実的な運転行動データを引き出す際には、正確な実世界の表現が必要である。
本稿では,LiDARセンサに依存せず,計測データやマルチセンサフュージョン,機械学習,高精度キャリブレーションを必要とせずに,点雲情報のみに基づいて現実的な道路表現を生成する手法を提案する。
主なユースケースはシミュレーションであるので、評価にはOpenDRIVEフォーマットを使用します。
関連論文リスト
- A Joint Approach Towards Data-Driven Virtual Testing for Automated Driving: The AVEAS Project [2.4163276807189282]
シミュレーションのパラメトリゼーションや検証には、現実世界のデータが著しく不足している。
本稿では,ドイツのAVAS研究プロジェクトの結果について述べる。
論文 参考訳(メタデータ) (2024-05-10T07:36:03Z) - An Approach to Systematic Data Acquisition and Data-Driven Simulation for the Safety Testing of Automated Driving Functions [32.37902846268263]
オープンワールド」の安全性への影響に関連する研究開発分野では、シミュレーションのパラメータ化や検証を行うための実世界のデータが著しく不足している。
本稿では、異種な方法で公共交通のデータを体系的に取得し、それらを統一表現に変換し、自動運転機能のデータ駆動仮想検証に使用する交通行動モデルを自動的にパラメータ化する手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T23:24:27Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Automated Automotive Radar Calibration With Intelligent Vehicles [73.15674960230625]
本稿では,自動車用レーダセンサの自動校正手法を提案する。
本手法では, 車両の外部改造を必要とせず, 自動走行車から得られる位置情報を利用する。
実地試験場からのデータを評価した結果,インフラセンサを自動で正確に校正できることが判明した。
論文 参考訳(メタデータ) (2023-06-23T07:01:10Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Deep Surrogate Q-Learning for Autonomous Driving [17.30342128504405]
本稿では,自律運転における車線変更行動学習のためのSurrogate Q-learningを提案する。
このアーキテクチャは、Scene-centric Experience Replayと呼ばれる新しいリプレイサンプリング技術に繋がることを示す。
また,本手法は実高Dデータセット上のポリシーを学習することで,実世界のRLシステムの適用性を向上させる。
論文 参考訳(メタデータ) (2020-10-21T19:49:06Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。