論文の概要: Motion Forecasting in Continuous Driving
- arxiv url: http://arxiv.org/abs/2410.06007v1
- Date: Tue, 8 Oct 2024 13:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 11:40:34.095258
- Title: Motion Forecasting in Continuous Driving
- Title(参考訳): 連続運転における動作予測
- Authors: Nan Song, Bozhou Zhang, Xiatian Zhu, Li Zhang,
- Abstract要約: 自動運転では、自動運転車が動くと、動きの予測が繰り返し繰り返される。
既存の予測方法は、特定の範囲内で各走行シーンを独立に処理する。
本稿では,連続運転のための新しい動き予測フレームワークであるRealMotionを提案する。
- 参考スコア(独自算出の注目度): 41.6423398623095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motion forecasting for agents in autonomous driving is highly challenging due to the numerous possibilities for each agent's next action and their complex interactions in space and time. In real applications, motion forecasting takes place repeatedly and continuously as the self-driving car moves. However, existing forecasting methods typically process each driving scene within a certain range independently, totally ignoring the situational and contextual relationships between successive driving scenes. This significantly simplifies the forecasting task, making the solutions suboptimal and inefficient to use in practice. To address this fundamental limitation, we propose a novel motion forecasting framework for continuous driving, named RealMotion. It comprises two integral streams both at the scene level: (1) The scene context stream progressively accumulates historical scene information until the present moment, capturing temporal interactive relationships among scene elements. (2) The agent trajectory stream optimizes current forecasting by sequentially relaying past predictions. Besides, a data reorganization strategy is introduced to narrow the gap between existing benchmarks and real-world applications, consistent with our network. These approaches enable exploiting more broadly the situational and progressive insights of dynamic motion across space and time. Extensive experiments on Argoverse series with different settings demonstrate that our RealMotion achieves state-of-the-art performance, along with the advantage of efficient real-world inference. The source code will be available at https://github.com/fudan-zvg/RealMotion.
- Abstract(参考訳): 自律運転におけるエージェントの動作予測は、各エージェントの次のアクションと空間と時間における複雑な相互作用に対する多くの可能性のために、非常に難しい。
実際のアプリケーションでは、自動運転車が動くと、動きの予測が繰り返し繰り返されます。
しかし、既存の予測手法は、通常、各走行シーンを一定の範囲内で独立に処理し、連続する走行シーン間の状況的・文脈的関係を完全に無視する。
これは予測タスクを著しく単純化し、ソリューションを最適化し、実際に使用するのに非効率にする。
この基本的限界に対処するために,RealMotion という連続運転のための新しい動き予測フレームワークを提案する。
1)シーンのコンテキストストリームは、シーン要素間の時間的相互関係を捉えながら、現在までのシーン情報を段階的に蓄積する。
2) エージェント・トラジェクトリ・ストリームは過去の予測を逐次中継することで現在の予測を最適化する。
さらに、既存のベンチマークと実世界のアプリケーションとのギャップを狭めるために、当社のネットワークと整合したデータ再構成戦略が導入された。
これらのアプローチは、空間と時間にわたる動的運動の状況的および進歩的な洞察をより広く活用することを可能にする。
異なる設定のArgoverseシリーズの大規模な実験により、我々のRealMotionは、効率的な実世界の推論の利点とともに、最先端のパフォーマンスを達成することを示した。
ソースコードはhttps://github.com/fudan-zvg/RealMotion.comから入手できる。
関連論文リスト
- DeMo: Decoupling Motion Forecasting into Directional Intentions and Dynamic States [6.856351850183536]
マルチモーダルなトラジェクトリクエリを2つのタイプに分離するフレームワークであるDeMoを紹介する。
この形式を利用することで、軌道の多モード性と動的進化特性を別々に最適化する。
さらに,グローバルな情報集約と状態シーケンスモデリングのためのアテンションとマンバの併用手法についても紹介する。
論文 参考訳(メタデータ) (2024-10-08T12:27:49Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - Dynamic Scenario Representation Learning for Motion Forecasting with
Heterogeneous Graph Convolutional Recurrent Networks [25.383615554172778]
進化するシナリオをモデル化するために、動的異種グラフを利用する。
異種グラフリカレントネットワークを設計し、多様な相互作用情報を集約する。
動作予測デコーダを用いて,エージェントの現実的かつ多モーダルな将来の軌跡を予測する。
論文 参考訳(メタデータ) (2023-03-08T04:10:04Z) - LAformer: Trajectory Prediction for Autonomous Driving with Lane-Aware
Scene Constraints [16.861461971702596]
自律走行の軌道予測は、道路エージェントの運動性を連続的に推論し、シーン制約に従わなければならない。
既存の手法は通常、1段階の軌跡予測モデルに依存し、将来の軌跡を観測された軌跡と融合した風景情報に条件付ける。
本稿では、時間的に密度の高い車線推定モジュールを用いて、HDマップの上位高電位車線セグメントのみを選択するLAformerという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-27T16:34:16Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Pedestrian Stop and Go Forecasting with Hybrid Feature Fusion [87.77727495366702]
歩行者の立ち止まりと予測の新たな課題を紹介します。
都市交通における歩行者の立ち寄り行動を明示的に研究するためのベンチマークであるTransをリリースする。
歩行者の歩行動作に注釈を付けたいくつかの既存のデータセットから構築し、さまざまなシナリオや行動を実現する。
論文 参考訳(メタデータ) (2022-03-04T18:39:31Z) - An End-to-end Deep Reinforcement Learning Approach for the Long-term
Short-term Planning on the Frenet Space [0.0]
本稿では,自動運転車の意思決定と動作計画に向けた,エンドツーエンドの継続的強化学習手法を提案する。
初めて、Frenet空間上の状態と行動空間の両方を定義して、走行挙動を道路曲率に変化させないようにする。
このアルゴリズムは、フィードバックコントローラが追跡するFrenetフレーム上で連続時間軌道を生成する。
論文 参考訳(メタデータ) (2020-11-26T02:40:07Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。