論文の概要: Autonomous Driving Data Chain & Interfaces
- arxiv url: http://arxiv.org/abs/2104.01252v1
- Date: Fri, 2 Apr 2021 21:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 04:37:32.097546
- Title: Autonomous Driving Data Chain & Interfaces
- Title(参考訳): 自動運転データチェーンとインターフェース
- Authors: Benjamin Kahl
- Abstract要約: この文書は、自己修復マップデータチェーンの各ステップで最もよく使われるインターフェースとフォーマットをレビューします。
最近の自動運転技術の発展により、マップデータは一般的なルーティング目的だけでなく、一般的なセンサーデータの強化と補完にも使われることが証明されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent developments in autonomous driving technology have proven that map
data may be used, not only for general routing purposes, but also for to
enhance and complement common sensor data. This document reviews the most
commonly used interfaces and formats at each step of a selfhealing map data
chain.
- Abstract(参考訳): 最近の自動運転技術の発展により、マップデータは一般的なルーティング目的だけでなく、一般的なセンサーデータの強化と補完にも使われることが証明されている。
この文書は、自己修復マップデータチェーンの各ステップで最もよく使われるインターフェースとフォーマットをレビューします。
関連論文リスト
- Driving with Prior Maps: Unified Vector Prior Encoding for Autonomous Vehicle Mapping [18.97422977086127]
高精細マップ(HDマップ)は、自動運転車の正確なナビゲーションと意思決定に不可欠である。
オンボードセンサーを用いたHDマップのオンライン構築が,有望なソリューションとして浮上している。
本稿では,事前マップのパワーを活用して,これらの制約に対処するPresidedDriveフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-09T06:17:46Z) - Leveraging GNSS and Onboard Visual Data from Consumer Vehicles for Robust Road Network Estimation [18.236615392921273]
本稿では,自動運転車における道路グラフ構築の課題について述べる。
本稿では,これらの標準センサから取得したグローバルナビゲーション衛星システム(GNSS)のトレースと基本画像データについて提案する。
我々は、畳み込みニューラルネットワークを用いて、道路中心のセマンティックセグメンテーションタスクとして問題をフレーミングすることで、データの空間情報を利用する。
論文 参考訳(メタデータ) (2024-08-03T02:57:37Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - Surrogate Modeling of Trajectory Map-matching in Urban Road Networks using Transformer Sequence-to-Sequence Model [1.3812010983144802]
本稿では、オフラインマップマッチングアルゴリズムのサロゲートとして機能するディープラーニングモデル、特にトランスフォーマーベースのエンコーダデコーダモデルを提案する。
このモデルは、ニューヨーク州マンハッタンで収集されたGPSトレースを使って訓練され、評価されている。
論文 参考訳(メタデータ) (2024-04-18T18:39:23Z) - G-MEMP: Gaze-Enhanced Multimodal Ego-Motion Prediction in Driving [71.9040410238973]
我々は、視線データを用いて、運転者の車両のエゴ軌道を推定することに集中する。
次に、GPSとビデオ入力と視線データを組み合わせた新しいマルチモーダルエゴ軌道予測ネットワークであるG-MEMPを開発する。
その結果,G-MEMPは両ベンチマークにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Exploring Map-based Features for Efficient Attention-based Vehicle
Motion Prediction [3.222802562733787]
複数のエージェントの動作予測は、任意に複雑な環境において重要なタスクである。
本稿では,効率的な注意モデルを用いてArgoverse 1.0ベンチマークで競合性能を実現する方法を示す。
論文 参考訳(メタデータ) (2022-05-25T22:38:11Z) - Radar-based Automotive Localization using Landmarks in a Multimodal
Sensor Graph-based Approach [0.0]
本稿では,自動車用レーダによる局部化の問題に対処する。
システムは抽象層としてランドマークとオドメトリ情報を使用する。
単一のセマンティックランドマークマップが、すべてのセンサーで使用され、維持される。
論文 参考訳(メタデータ) (2021-04-29T07:35:20Z) - Universal Embeddings for Spatio-Temporal Tagging of Self-Driving Logs [72.67604044776662]
我々は、生のセンサデータから、自動運転シーンの時間的タグ付けの問題に取り組む。
提案手法では,全てのタグに対する普遍的な埋め込みを学習し,多くの属性を効率的にタグ付けし,限られたデータで新しい属性を高速に学習する。
論文 参考訳(メタデータ) (2020-11-12T02:18:16Z) - Learning Accurate and Human-Like Driving using Semantic Maps and
Attention [152.48143666881418]
本稿では,より正確かつ人間らしく運転できるエンド・ツー・エンド駆動モデルについて検討する。
HERE Technologiesのセマンティックマップとビジュアルマップを活用し、既存のDrive360データセットを拡張します。
私たちのモデルは、実世界の運転データ60時間3000kmのDrive360+HEREデータセットでトレーニングされ、評価されています。
論文 参考訳(メタデータ) (2020-07-10T22:25:27Z) - Explicit Domain Adaptation with Loosely Coupled Samples [85.9511585604837]
本稿では,ドメイン間の明示的なマッピングを学習するトランスファーラーニングフレームワークを提案する。
その解釈可能性のために、これは自律運転のような安全クリティカルなアプリケーションにとって有益である。
論文 参考訳(メタデータ) (2020-04-24T21:23:45Z) - Generalizable Pedestrian Detection: The Elephant In The Room [82.37430109152383]
既存の最先端の歩行者検出器は、同じデータセット上でトレーニングやテストを行う際には、非常によく機能するが、データセット間の評価では、十分に一般化されていない。
ウェブをクロールすることで収集される多様で高密度なデータセットは、歩行者検出のための事前学習の効率的な情報源であることを示す。
論文 参考訳(メタデータ) (2020-03-19T14:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。