論文の概要: Vehicle Trajectory Prediction on Highways Using Bird Eye View
Representations and Deep Learning
- arxiv url: http://arxiv.org/abs/2207.01407v1
- Date: Mon, 4 Jul 2022 13:39:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 12:31:54.477326
- Title: Vehicle Trajectory Prediction on Highways Using Bird Eye View
Representations and Deep Learning
- Title(参考訳): 鳥の視線表示と深層学習を用いた高速道路の軌道予測
- Authors: Rub\'en Izquierdo, \'Alvaro Quintanar, David Fern\'andez Llorca,
Iv\'an Garc\'ia Daza, Noelia Hern\'andez, Ignacio Parra, Miguel \'Angel
Sotelo
- Abstract要約: 本研究では,効率的な鳥の視線表示と畳み込みニューラルネットワークを用いた高速道路シナリオにおける車両軌跡の予測手法を提案する。
U-netモデルは予測カーネルとして選択され、画像から画像への回帰アプローチを用いてシーンの将来の視覚表現を生成する。
生成したグラフィカル表現から車の位置を抽出してサブピクセル解像度を実現する手法が実装されている。
- 参考スコア(独自算出の注目度): 0.5420492913071214
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work presents a novel method for predicting vehicle trajectories in
highway scenarios using efficient bird's eye view representations and
convolutional neural networks. Vehicle positions, motion histories, road
configuration, and vehicle interactions are easily included in the prediction
model using basic visual representations. The U-net model has been selected as
the prediction kernel to generate future visual representations of the scene
using an image-to-image regression approach. A method has been implemented to
extract vehicle positions from the generated graphical representations to
achieve subpixel resolution. The method has been trained and evaluated using
the PREVENTION dataset, an on-board sensor dataset. Different network
configurations and scene representations have been evaluated. This study found
that U-net with 6 depth levels using a linear terminal layer and a Gaussian
representation of the vehicles is the best performing configuration. The use of
lane markings was found to produce no improvement in prediction performance.
The average prediction error is 0.47 and 0.38 meters and the final prediction
error is 0.76 and 0.53 meters for longitudinal and lateral coordinates,
respectively, for a predicted trajectory length of 2.0 seconds. The prediction
error is up to 50% lower compared to the baseline method.
- Abstract(参考訳): 本稿では,効率的な鳥の視線表現と畳み込みニューラルネットワークを用いて,高速道路シナリオにおける車両軌跡予測手法を提案する。
車両の位置、移動履歴、道路構成、車両の相互作用は、基本的な視覚的表現を用いた予測モデルに容易に含まれる。
U-netモデルは予測カーネルとして選択され、画像から画像への回帰アプローチを用いてシーンの将来の視覚表現を生成する。
生成されたグラフィカル表現から車両の位置を抽出してサブピクセル解像度を実現する手法が実装されている。
この方法は、オンボードセンサーデータセットである予防データセットを用いて、トレーニングおよび評価されている。
異なるネットワーク構成とシーン表現が評価されている。
本研究は,リニアターミナル層とガウス表現を用いた深さ6レベルのu-netが最適な構成であることを示す。
レーンマーキングを用いた場合,予測性能は改善しなかった。
平均予測誤差は 0.47 と 0.38 メートルであり、最終予測誤差は縦座標と横座標それぞれ 0.76 と 0.53 メートルであり、予測軌道長は 2.0 秒である。
予測誤差は、ベースライン法と比較して最大50%低い。
関連論文リスト
- VisionTrap: Vision-Augmented Trajectory Prediction Guided by Textual Descriptions [10.748597086208145]
本研究では,サラウンドビューカメラからの視覚入力を取り入れた新しい手法を提案する。
提案手法は,53msのレイテンシを実現し,リアルタイム処理を実現する。
実験の結果,視覚入力とテキスト記述の両方が軌跡予測性能の向上に寄与していることがわかった。
論文 参考訳(メタデータ) (2024-07-17T06:39:52Z) - BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction [4.328789276903559]
軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
論文 参考訳(メタデータ) (2023-12-20T15:02:37Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - Pre-training on Synthetic Driving Data for Trajectory Prediction [61.520225216107306]
軌道予測におけるデータ不足の問題を緩和するパイプラインレベルのソリューションを提案する。
我々は、駆動データを生成するためにHDマップ拡張とトラジェクトリ合成を採用し、それらを事前学習することで表現を学習する。
我々は、データ拡張と事前学習戦略の有効性を実証するための広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-18T19:49:22Z) - SAPI: Surroundings-Aware Vehicle Trajectory Prediction at Intersections [4.982485708779067]
SAPIは交差点での車両軌道を予測するためのディープラーニングモデルである。
提案モデルは2つの畳み込みニューラルネットワーク(CNN)と1つのデコーダからなる。
我々は、自動運転車を介して現実世界の交差点で収集されたプロプライエタリなデータセット上でSAPIを評価する。
論文 参考訳(メタデータ) (2023-06-02T07:10:45Z) - Multi-Vehicle Trajectory Prediction at Intersections using State and
Intention Information [50.40632021583213]
道路員の将来の軌跡予測への伝統的なアプローチは、過去の軌跡を知ることに依存している。
この研究は、交差点で複数の車両の予測を行うために、現在の状態と意図された方向を知ることに依存する。
この情報を車両間で送るメッセージは、それぞれがより総合的な環境概要を提供する。
論文 参考訳(メタデータ) (2023-01-06T15:13:23Z) - LOPR: Latent Occupancy PRediction using Generative Models [49.15687400958916]
LiDARの生成した占有グリッドマップ(L-OGM)は、頑丈な鳥の視線シーンを表現している。
本稿では,学習空間内での表現学習と予測という,占有率予測を分離する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-03T22:04:00Z) - SLPC: a VRNN-based approach for stochastic lidar prediction and
completion in autonomous driving [63.87272273293804]
VRNN(Variiational Recurrent Neural Networks)と呼ばれる生成モデルに基づく新しいLiDAR予測フレームワークを提案する。
提案手法は,フレーム内の奥行きマップを空間的に塗り替えることで,スパースデータを扱う際の従来のビデオ予測フレームワークの限界に対処できる。
VRNNのスパースバージョンとラベルを必要としない効果的な自己監督型トレーニング方法を紹介します。
論文 参考訳(メタデータ) (2021-02-19T11:56:44Z) - Vehicle Trajectory Prediction in Crowded Highway Scenarios Using Bird
Eye View Representations and CNNs [0.0]
本稿では,図形表現を用いた車両軌道予測の新しい手法について述べる。
この問題は、交通参加者間の基盤となる関係を学習するためにネットワークを訓練する画像回帰問題である。
このモデルは2つの反対の交通流で同時に30台以上の車両で高速道路のシナリオでテストされている。
論文 参考訳(メタデータ) (2020-08-26T11:15:49Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。