論文の概要: TOFG: A Unified and Fine-Grained Environment Representation in
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2305.20068v1
- Date: Wed, 31 May 2023 17:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 14:43:28.630983
- Title: TOFG: A Unified and Fine-Grained Environment Representation in
Autonomous Driving
- Title(参考訳): tofg: 自動運転における統一的できめ細かい環境表現
- Authors: Zihao Wen, Yifan Zhang, Xinhong Chen, Jianping Wang
- Abstract要約: 自律運転では、軌道予測や運動計画といった多くの運転タスクにおいて、環境の正確な理解が重要な役割を果たす。
軌道予測と運動計画のための多くのデータ駆動モデルでは、車両間および車両間相互作用を分離的かつ逐次的に抽出する。
環境表現であるTOFG(Temporal Occupancy Flow Graph)を提案し、地図情報と車両軌跡を均質なデータ形式に統一する。
- 参考スコア(独自算出の注目度): 7.787762537147956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In autonomous driving, an accurate understanding of environment, e.g., the
vehicle-to-vehicle and vehicle-to-lane interactions, plays a critical role in
many driving tasks such as trajectory prediction and motion planning.
Environment information comes from high-definition (HD) map and historical
trajectories of vehicles. Due to the heterogeneity of the map data and
trajectory data, many data-driven models for trajectory prediction and motion
planning extract vehicle-to-vehicle and vehicle-to-lane interactions in a
separate and sequential manner. However, such a manner may capture biased
interpretation of interactions, causing lower prediction and planning accuracy.
Moreover, separate extraction leads to a complicated model structure and hence
the overall efficiency and scalability are sacrificed. To address the above
issues, we propose an environment representation, Temporal Occupancy Flow Graph
(TOFG). Specifically, the occupancy flow-based representation unifies the map
information and vehicle trajectories into a homogeneous data format and enables
a consistent prediction. The temporal dependencies among vehicles can help
capture the change of occupancy flow timely to further promote model
performance. To demonstrate that TOFG is capable of simplifying the model
architecture, we incorporate TOFG with a simple graph attention (GAT) based
neural network and propose TOFG-GAT, which can be used for both trajectory
prediction and motion planning. Experiment results show that TOFG-GAT achieves
better or competitive performance than all the SOTA baselines with less
training time.
- Abstract(参考訳): 自律運転では、車両間相互作用や車間相互作用といった環境の正確な理解が、軌道予測や運動計画といった多くの運転タスクにおいて重要な役割を果たす。
環境情報は、高精細度(hd)マップと車両の歴史的軌跡から得られる。
地図データと軌跡データの不均一性のため、軌跡予測と移動計画のための多くのデータ駆動モデルが、車両間および車両間相互作用を分離かつ逐次的に抽出する。
しかし、このような方法で相互作用のバイアスのある解釈を捉え、予測と計画の精度が低下する。
さらに、分離抽出は複雑なモデル構造につながるため、全体的な効率とスケーラビリティは犠牲になる。
上記の課題に対処するため, 環境表現であるTOFG(Temporal Occupancy Flow Graph)を提案する。
具体的には、占有フローに基づく表現は、地図情報と車両の軌跡を均質なデータ形式に統一し、一貫した予測を可能にする。
車両間の時間的依存関係は、占有フローの変化をタイムリーに捉え、モデル性能をさらに促進するのに役立ちます。
ToFGはモデルアーキテクチャを単純化できることを示すため,単純なグラフ注意(GAT)ベースのニューラルネットワークを用いてTOFGを組み込み,軌道予測と運動計画の両方に使用できるTOFG-GATを提案する。
実験結果から,TOFG-GATは訓練時間が少なく,全てのSOTAベースラインよりも優れた,あるいは競争的な性能を発揮することが示された。
関連論文リスト
- DiFSD: Ego-Centric Fully Sparse Paradigm with Uncertainty Denoising and Iterative Refinement for Efficient End-to-End Self-Driving [55.53171248839489]
我々は、エンドツーエンドの自動運転のためのエゴ中心の完全スパースパラダイムであるDiFSDを提案する。
特に、DiFSDは主にスパース知覚、階層的相互作用、反復的な運動プランナーから構成される。
nuScenesとBench2Driveデータセットで実施された実験は、DiFSDの優れた計画性能と優れた効率を実証している。
論文 参考訳(メタデータ) (2024-09-15T15:55:24Z) - MFTraj: Map-Free, Behavior-Driven Trajectory Prediction for Autonomous Driving [15.965681867350215]
本稿では,自律走行に適した軌道予測モデルを提案する。
歴史的軌跡データと新しい幾何学的動的グラフに基づく行動認識モジュールを組み合わせる。
計算効率とパラメータオーバーヘッドの低減を実現している。
論文 参考訳(メタデータ) (2024-05-02T13:13:52Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - Conditioned Human Trajectory Prediction using Iterative Attention Blocks [70.36888514074022]
本研究では,都市環境における歩行者位置予測を目的とした,簡易かつ効果的な歩行者軌道予測モデルを提案する。
我々のモデルは、複数のアテンションブロックとトランスフォーマーを反復的に実行できるニューラルネットワークアーキテクチャである。
ソーシャルマスク, 動的モデル, ソーシャルプーリング層, 複雑なグラフのような構造を明示的に導入することなく, SoTAモデルと同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T07:49:48Z) - Control-Aware Prediction Objectives for Autonomous Driving [78.19515972466063]
本研究では,制御に対する予測の下流効果を評価するための制御認識予測目標(CAPOs)を提案する。
本稿では,エージェント間の注意モデルを用いた重み付けと,予測軌跡を接地真実軌跡に交換する際の制御変動に基づく重み付けの2つの方法を提案する。
論文 参考訳(メタデータ) (2022-04-28T07:37:21Z) - CRAT-Pred: Vehicle Trajectory Prediction with Crystal Graph
Convolutional Neural Networks and Multi-Head Self-Attention [10.83642398981694]
CRAT-Predは、地図情報に依存しない軌道予測モデルである。
このモデルは非常に少ないモデルパラメータで最先端の性能を達成する。
さらに,車間の社会的相互作用を,測定可能なインタラクションスコアを表す重みによって学習できることを定量的に示す。
論文 参考訳(メタデータ) (2022-02-09T14:36:36Z) - SGCN:Sparse Graph Convolution Network for Pedestrian Trajectory
Prediction [64.16212996247943]
歩行者軌道予測のためのスパースグラフ畳み込みネットワーク(SGCN)を提案する。
具体的には、SGCNはスパース指向の相互作用をスパース指向の空間グラフと明確にモデル化し、適応的な相互作用歩行者を捉える。
可視化は,歩行者の適応的相互作用とその運動特性を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:17:42Z) - Spatio-Temporal Graph Dual-Attention Network for Multi-Agent Prediction
and Tracking [23.608125748229174]
異種エージェントを含む多エージェント軌道予測のための汎用生成ニューラルシステムを提案する。
提案システムは, 軌道予測のための3つのベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-02-18T02:25:35Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - GISNet: Graph-Based Information Sharing Network For Vehicle Trajectory
Prediction [6.12727713172576]
Google、Uber、DiDiなどのAI指向企業は、より正確な車両軌道予測アルゴリズムを調査している。
本稿では,対象車両とその周辺車両間の情報共有を可能にする新しいグラフベース情報共有ネットワーク(GISNet)を提案する。
論文 参考訳(メタデータ) (2020-03-22T03:24:31Z) - Social-WaGDAT: Interaction-aware Trajectory Prediction via Wasserstein
Graph Double-Attention Network [29.289670231364788]
本稿では,マルチエージェント軌道予測のためのジェネリック生成ニューラルシステムを提案する。
また、車両軌道予測に効率的なキネマティック拘束層を応用した。
提案システムは,軌道予測のための3つの公開ベンチマークデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-02-14T20:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。