論文の概要: ITPNet: Towards Instantaneous Trajectory Prediction for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2412.07369v1
- Date: Tue, 10 Dec 2024 10:09:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:37:05.705286
- Title: ITPNet: Towards Instantaneous Trajectory Prediction for Autonomous Driving
- Title(参考訳): ITPNet: 自動運転の即時軌道予測に向けて
- Authors: Rongqing Li, Changsheng Li, Yuhang Li, Hanjie Li, Yi Chen, Dongchun Ren, Ye Yuan, Guoren Wang,
- Abstract要約: エージェントの軌道予測は自動運転車の安全性に不可欠である。
従来のアプローチは通常、エージェントの将来の軌道を予測するのに十分な長期の軌道に依存する。
ITPNetと呼ばれる汎用かつプラグアンドプレイの即時軌道予測手法を提案する。
- 参考スコア(独自算出の注目度): 46.17683799762322
- License:
- Abstract: Trajectory prediction of agents is crucial for the safety of autonomous vehicles, whereas previous approaches usually rely on sufficiently long-observed trajectory to predict the future trajectory of the agents. However, in real-world scenarios, it is not realistic to collect adequate observed locations for moving agents, leading to the collapse of most prediction models. For instance, when a moving car suddenly appears and is very close to an autonomous vehicle because of the obstruction, it is quite necessary for the autonomous vehicle to quickly and accurately predict the future trajectories of the car with limited observed trajectory locations. In light of this, we focus on investigating the task of instantaneous trajectory prediction, i.e., two observed locations are available during inference. To this end, we propose a general and plug-and-play instantaneous trajectory prediction approach, called ITPNet. Specifically, we propose a backward forecasting mechanism to reversely predict the latent feature representations of unobserved historical trajectories of the agent based on its two observed locations and then leverage them as complementary information for future trajectory prediction. Meanwhile, due to the inevitable existence of noise and redundancy in the predicted latent feature representations, we further devise a Noise Redundancy Reduction Former, aiming at to filter out noise and redundancy from unobserved trajectories and integrate the filtered features and observed features into a compact query for future trajectory predictions. In essence, ITPNet can be naturally compatible with existing trajectory prediction models, enabling them to gracefully handle the case of instantaneous trajectory prediction. Extensive experiments on the Argoverse and nuScenes datasets demonstrate ITPNet outperforms the baselines, and its efficacy with different trajectory prediction models.
- Abstract(参考訳): エージェントの軌道予測は自動運転車の安全性に不可欠であるが、以前のアプローチではエージェントの将来の軌道を予測するのに十分な長期の軌道に依存していた。
しかし、現実のシナリオでは、移動エージェントの適切な観測位置を収集することは現実的ではなく、ほとんどの予測モデルが崩壊する。
例えば、車が突然現れて、障害物のために非常に自動運転車に近づいた場合、自動運転車は、観測された軌道の限られた将来の軌跡を迅速かつ正確に予測する必要がある。
そこで本研究では, 瞬時軌道予測の課題, すなわち, 推定中に2つの観測地点が利用可能となることに着目した。
そこで本研究では,IPPNetと呼ばれる汎用的かつプラグアンドプレイな瞬時軌道予測手法を提案する。
具体的には、観測された2つの位置に基づいて、エージェントの観測されていない歴史的軌跡の潜在特徴表現を逆向きに予測し、それらを将来の軌跡予測の補完情報として活用する後方予測機構を提案する。
一方,予測潜在特徴表現にノイズや冗長性が必然的に存在するため,未観測軌道からノイズや冗長性を除去し,フィルタされた特徴と観測された特徴を,将来の軌道予測のためのコンパクトなクエリに統合することを目的としたノイズ冗長化前報を考案した。
本質的に、IPPNetは既存の軌道予測モデルと自然に互換性があり、即時軌道予測の場合を優雅に処理することができる。
Argoverse と nuScenes データセットの大規模な実験では、ITPNet はベースラインよりも優れており、その効果は異なる軌道予測モデルで示されている。
関連論文リスト
- HPNet: Dynamic Trajectory Forecasting with Historical Prediction Attention [76.37139809114274]
HPNetは、新しい動的軌道予測手法である。
逐次予測間の動的関係を自動的に符号化する履歴予測アテンションモジュールを提案する。
私たちのコードはhttps://github.com/XiaolongTang23/HPNetで利用可能です。
論文 参考訳(メタデータ) (2024-04-09T14:42:31Z) - Streaming Motion Forecasting for Autonomous Driving [71.7468645504988]
ストリーミングデータにおける将来の軌跡を問うベンチマークを導入し,これを「ストリーミング予測」と呼ぶ。
我々のベンチマークは本質的に、スナップショットベースのベンチマークでは見過ごされていない安全上の問題であるエージェントの消失と再出現を捉えている。
我々は,任意のスナップショットベースの予測器をストリーミング予測器に適応させることのできる,"Predictive Streamer"と呼ばれるプラグアンドプレイメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-02T17:13:16Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - ScePT: Scene-consistent, Policy-based Trajectory Predictions for
Planning [32.71073060698739]
軌道予測は、制御されていないエージェントと環境を共有する自律システムにとって重要である。
政策計画に基づく軌道予測モデルであるScePTを提案する。
明示的にシーンの一貫性を強制し、条件付き予測に使用できるエージェントインタラクションポリシーを学ぶ。
論文 参考訳(メタデータ) (2022-06-18T00:00:02Z) - Self-Supervised Action-Space Prediction for Automated Driving [0.0]
本稿では,自動走行のための新しい学習型マルチモーダル軌道予測アーキテクチャを提案する。
学習問題を加速度と操舵角の空間に投入することにより、運動論的に実現可能な予測を実現する。
提案手法は,都市交差点とラウンドアバウトを含む実世界のデータセットを用いて評価する。
論文 参考訳(メタデータ) (2021-09-21T08:27:56Z) - Learning to Predict Vehicle Trajectories with Model-based Planning [43.27767693429292]
PRIME(Prediction with Model-based Planning)という新しいフレームワークを紹介します。
ニューラルネットワークを使ってシーンコンテキストをモデル化する最近の予測作業とは異なり、PRIMEは正確で実現可能な将来の軌道予測を生成するように設計されている。
我々のPRIMEは、不完全追跡下での予測精度、実現可能性、堅牢性において最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-03-06T04:49:24Z) - Spatio-Temporal Graph Dual-Attention Network for Multi-Agent Prediction
and Tracking [23.608125748229174]
異種エージェントを含む多エージェント軌道予測のための汎用生成ニューラルシステムを提案する。
提案システムは, 軌道予測のための3つのベンチマークデータセット上で評価される。
論文 参考訳(メタデータ) (2021-02-18T02:25:35Z) - TNT: Target-driveN Trajectory Prediction [76.21200047185494]
我々は移動エージェントのための目標駆動軌道予測フレームワークを開発した。
我々は、車や歩行者の軌道予測をベンチマークする。
私たちはArgoverse Forecasting、InterAction、Stanford Drone、および社内のPedestrian-at-Intersectionデータセットの最先端を達成しています。
論文 参考訳(メタデータ) (2020-08-19T06:52:46Z) - AMENet: Attentive Maps Encoder Network for Trajectory Prediction [35.22312783822563]
軌道予測は、安全な将来の動きを計画するための応用に不可欠である。
我々は Attentive Maps Network (AMENet) というエンドツーエンド生成モデルを提案する。
AMENetはエージェントの動作と相互作用情報をエンコードし、高精度でリアルなマルチパス軌道予測を行う。
論文 参考訳(メタデータ) (2020-06-15T10:00:07Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。