論文の概要: Vehicle Trajectory Prediction in Crowded Highway Scenarios Using Bird
Eye View Representations and CNNs
- arxiv url: http://arxiv.org/abs/2008.11493v1
- Date: Wed, 26 Aug 2020 11:15:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 21:48:34.253955
- Title: Vehicle Trajectory Prediction in Crowded Highway Scenarios Using Bird
Eye View Representations and CNNs
- Title(参考訳): バードアイビュー表示とCNNを用いた混雑ハイウェイシナリオの車両軌道予測
- Authors: R. Izquierdo, A. Quintanar, I. Parra, D. Fernandez-Llorca, and M. A.
Sotelo
- Abstract要約: 本稿では,図形表現を用いた車両軌道予測の新しい手法について述べる。
この問題は、交通参加者間の基盤となる関係を学習するためにネットワークを訓練する画像回帰問題である。
このモデルは2つの反対の交通流で同時に30台以上の車両で高速道路のシナリオでテストされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes a novel approach to perform vehicle trajectory
predictions employing graphic representations. The vehicles are represented
using Gaussian distributions into a Bird Eye View. Then the U-net model is used
to perform sequence to sequence predictions. This deep learning-based
methodology has been trained using the HighD dataset, which contains vehicles'
detection in a highway scenario from aerial imagery. The problem is faced as an
image to image regression problem training the network to learn the underlying
relations between the traffic participants. This approach generates an
estimation of the future appearance of the input scene, not trajectories or
numeric positions. An extra step is conducted to extract the positions from the
predicted representation with subpixel resolution. Different network
configurations have been tested, and prediction error up to three seconds ahead
is in the order of the representation resolution. The model has been tested in
highway scenarios with more than 30 vehicles simultaneously in two opposite
traffic flow streams showing good qualitative and quantitative results.
- Abstract(参考訳): 本稿では,グラフィック表現を用いた車両軌道予測手法を提案する。
車両はガウス分布を用いてバードアイビューに表現される。
次に、U-netモデルを用いてシーケンス予測を行う。
このディープラーニングベースの方法論は、空中画像から高速道路のシナリオで車両の検出を含むHighDデータセットを使用して訓練されている。
この問題は、交通参加者間の基盤となる関係を学習するためにネットワークを訓練する画像回帰問題である。
このアプローチは、軌跡や数値的な位置ではなく、入力シーンの将来の出現を推定する。
サブピクセル解像度で予測された表現から位置を抽出する余分なステップが実行される。
異なるネットワーク構成がテストされており、予測エラーが3秒先にあるのは、表示解像度の順である。
このモデルは、30台以上の車両を同時に2つの反対の交通流で試験し、質的かつ定量的な結果を示した。
関連論文リスト
- SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z) - BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction [4.328789276903559]
軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
論文 参考訳(メタデータ) (2023-12-20T15:02:37Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Multi-Vehicle Trajectory Prediction at Intersections using State and
Intention Information [50.40632021583213]
道路員の将来の軌跡予測への伝統的なアプローチは、過去の軌跡を知ることに依存している。
この研究は、交差点で複数の車両の予測を行うために、現在の状態と意図された方向を知ることに依存する。
この情報を車両間で送るメッセージは、それぞれがより総合的な環境概要を提供する。
論文 参考訳(メタデータ) (2023-01-06T15:13:23Z) - Vehicle Trajectory Prediction on Highways Using Bird Eye View
Representations and Deep Learning [0.5420492913071214]
本研究では,効率的な鳥の視線表示と畳み込みニューラルネットワークを用いた高速道路シナリオにおける車両軌跡の予測手法を提案する。
U-netモデルは予測カーネルとして選択され、画像から画像への回帰アプローチを用いてシーンの将来の視覚表現を生成する。
生成したグラフィカル表現から車の位置を抽出してサブピクセル解像度を実現する手法が実装されている。
論文 参考訳(メタデータ) (2022-07-04T13:39:46Z) - ParkPredict+: Multimodal Intent and Motion Prediction for Vehicles in
Parking Lots with CNN and Transformer [11.287187018907284]
本稿では,駐車場における人間駆動車両の多目的意図と軌道予測について述べる。
CNNとTransformerネットワークで設計したモデルを用いて,時間空間的・文脈的な情報を軌跡履歴や鳥の視線意味画像から抽出する。
提案手法は,任意のモードを許容しながら,既存のモデルよりも精度が高い。
さらに,駐車場において,高解像度でリッチな交通シナリオを備えた最初の一般人運転データセットを提示する。
論文 参考訳(メタデータ) (2022-04-17T01:54:25Z) - Vision-Guided Forecasting -- Visual Context for Multi-Horizon Time
Series Forecasting [0.6947442090579469]
2つのモードを融合させて車両状態のマルチ水平予測に取り組む。
我々は,視覚的特徴抽出のための3次元畳み込みと,速度と操舵角度トレースからの特徴抽出のための1次元畳み込みの設計と実験を行った。
我々は,車両の状態を様々な地平線に予測でき,運転状態推定のタスクにおいて,現在の最先端結果よりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-27T08:52:40Z) - Two-Stream Networks for Lane-Change Prediction of Surrounding Vehicles [8.828423067460644]
高速道路のシナリオでは、人間のドライバーは視覚的手がかりのみを使用して車両を取り巻く早期の切り込みと切り抜きの操作を予想する。
周囲車両の車線変化認識と予測に対処するため,ビデオカメラからの視覚的手がかりを積み重ねることで,行動認識・予測問題としてこの問題を提起する。
2ストリーム畳み込みネットワークと乗算器ネットワークという2つのビデオアクション認識アプローチが分析されている。
論文 参考訳(メタデータ) (2020-08-25T07:59:15Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - Action Sequence Predictions of Vehicles in Urban Environments using Map
and Social Context [152.0714518512966]
本研究は、現実の運転シナリオにおける周辺車両の今後の行動の順序を予測する問題について研究する。
最初のコントリビューションは、現実世界の運転シナリオに記録された軌跡をHDマップの助けを借りてアクションシーケンスに変換する自動手法である。
第2のコントリビューションは、よく知られたトラフィックエージェント追跡と予測データセットArgoverseへのメソッドの適用であり、結果として228,000のアクションシーケンスが生成される。
第3のコントリビューションは,交通エージェント,地図情報,社会状況の過去の位置と速度を,単一エンドツーエンドのトレーニング可能なニューラルネットワークに統合して,新たな行動シーケンス予測手法を提案することである。
論文 参考訳(メタデータ) (2020-04-29T14:59:58Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。