論文の概要: Optimizing Ego Vehicle Trajectory Prediction: The Graph Enhancement
Approach
- arxiv url: http://arxiv.org/abs/2312.13104v2
- Date: Wed, 10 Jan 2024 15:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 16:27:23.278756
- Title: Optimizing Ego Vehicle Trajectory Prediction: The Graph Enhancement
Approach
- Title(参考訳): エゴ車両軌道予測の最適化:グラフ拡張アプローチ
- Authors: Sushil Sharma, Aryan Singh, Ganesh Sistu, Mark Halton, Ciar\'an Eising
- Abstract要約: 我々は,空間的関係や物体の均一性を捉える上で,独特なアドバンテージを提供するBird's Eye Viewの視点の利用を提唱する。
我々の研究では、グラフニューラルネットワーク(GNN)と位置符号化を利用して、BEV内のオブジェクトを表現する。
- 参考スコア(独自算出の注目度): 1.3931837019950217
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the trajectory of an ego vehicle is a critical component of
autonomous driving systems. Current state-of-the-art methods typically rely on
Deep Neural Networks (DNNs) and sequential models to process front-view images
for future trajectory prediction. However, these approaches often struggle with
perspective issues affecting object features in the scene. To address this, we
advocate for the use of Bird's Eye View (BEV) perspectives, which offer unique
advantages in capturing spatial relationships and object homogeneity. In our
work, we leverage Graph Neural Networks (GNNs) and positional encoding to
represent objects in a BEV, achieving competitive performance compared to
traditional DNN-based methods. While the BEV-based approach loses some detailed
information inherent to front-view images, we balance this by enriching the BEV
data by representing it as a graph where relationships between the objects in a
scene are captured effectively.
- Abstract(参考訳): ego車両の軌道予測は、自動運転システムの重要な要素である。
現在の最先端の手法は通常、将来の軌跡予測のためにフロントビューイメージを処理するためにディープニューラルネットワーク(DNN)とシーケンシャルモデルに依存している。
しかし、これらのアプローチは、しばしばシーンのオブジェクト機能に影響を与える視点の問題に苦しむ。
これを解決するために,我々は,空間的関係や物体の均一性を捉える上で,独特な利点をもたらすBird's Eye View(BEV)の視点の利用を提唱する。
我々の研究では、グラフニューラルネットワーク(GNN)と位置符号化を利用して、BEV内のオブジェクトを表現する。
BEVベースのアプローチでは、フロントビュー画像固有の詳細情報が失われるが、シーン内のオブジェクト間の関係を効果的にキャプチャするグラフとして表現することで、BEVデータを豊かにする。
関連論文リスト
- BEVSeg2TP: Surround View Camera Bird's-Eye-View Based Joint Vehicle
Segmentation and Ego Vehicle Trajectory Prediction [4.328789276903559]
軌道予測は自動車の自律性にとって重要な課題である。
学習に基づく軌道予測への関心が高まっている。
認識能力を向上させる可能性があることが示される。
論文 参考訳(メタデータ) (2023-12-20T15:02:37Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - A Novel Deep Neural Network for Trajectory Prediction in Automated
Vehicles Using Velocity Vector Field [12.067838086415833]
本稿では,データ駆動学習に基づく手法と,自然に着想を得た概念から生成された速度ベクトル場(VVF)を組み合わせた軌道予測手法を提案する。
精度は、正確な軌道予測のための過去の観測の長い歴史の要求を緩和する観測窓の減少と一致している。
論文 参考訳(メタデータ) (2023-09-19T22:14:52Z) - Semi-Supervised Learning for Visual Bird's Eye View Semantic
Segmentation [16.3996408206659]
トレーニング中にラベルのない画像を活用することで性能を向上させるために,視覚的BEVセマンティックセマンティックセマンティックセマンティクスのための新しい半教師付きフレームワークを提案する。
次に、ラベルのないデータを完全に利用する一貫性損失を提案し、セマンティックな予測だけでなく、BEV機能にもモデルを制約する。
nuScenesとArgoverseデータセットの実験により、我々のフレームワークは予測精度を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2023-08-28T12:23:36Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - "The Pedestrian next to the Lamppost" Adaptive Object Graphs for Better
Instantaneous Mapping [45.94778766867247]
1つの画像から意味的に区切られた鳥の目視マップを推定することは、自律的な制御とナビゲーションの一般的な技術となっている。
カメラからの距離による位置推定誤差の増加を示す。
本稿では,物体の空間的推論により,BEV物体を単眼画像から予測するグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:23:13Z) - NEAT: Neural Attention Fields for End-to-End Autonomous Driving [59.60483620730437]
本稿では、模倣学習モデルの効率的な推論を可能にする新しい表現であるNEAT(NEural Attention Field)を提案する。
NEATは、Bird's Eye View (BEV) シーン座標の位置をウェイポイントとセマンティクスにマッピングする連続関数である。
有害な環境条件や挑戦的なシナリオを含む新たな評価環境では、NEATはいくつかの強いベースラインを上回り、特権のあるCARLA専門家と同等の運転スコアを達成している。
論文 参考訳(メタデータ) (2021-09-09T17:55:28Z) - AVGCN: Trajectory Prediction using Graph Convolutional Networks Guided
by Human Attention [11.342351420439725]
本稿では,人間の注意に基づくグラフ畳み込みネットワーク(GCN)を用いた軌道予測のための新しい手法であるAVGCNを提案する。
本手法は,いくつかの軌道予測ベンチマークにおいて最先端性能を達成し,検討したベンチマークにおいて平均予測誤差が最も低い。
論文 参考訳(メタデータ) (2021-01-14T16:00:31Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。