論文の概要: Perceive, Interact, Predict: Learning Dynamic and Static Clues for
End-to-End Motion Prediction
- arxiv url: http://arxiv.org/abs/2212.02181v1
- Date: Mon, 5 Dec 2022 11:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:34:33.267353
- Title: Perceive, Interact, Predict: Learning Dynamic and Static Clues for
End-to-End Motion Prediction
- Title(参考訳): 知覚的, 相互的, 予測: 終端動作予測のための動的, 静的曲線の学習
- Authors: Bo Jiang, Shaoyu Chen, Xinggang Wang, Bencheng Liao, Tianheng Cheng,
Jiajie Chen, Helong Zhou, Qian Zhang, Wenyu Liu, Chang Huang
- Abstract要約: PIPはエンドツーエンドのTransformerベースのフレームワークで、オンラインマッピング、オブジェクト検出、モーション予測を共同で、インタラクティブに行う。
PIPは、運転シーンの包括的な高レベル情報を提供し、下流の計画と制御に貢献する。
- 参考スコア(独自算出の注目度): 33.83033504607069
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Motion prediction is highly relevant to the perception of dynamic objects and
static map elements in the scenarios of autonomous driving. In this work, we
propose PIP, the first end-to-end Transformer-based framework which jointly and
interactively performs online mapping, object detection and motion prediction.
PIP leverages map queries, agent queries and mode queries to encode the
instance-wise information of map elements, agents and motion intentions,
respectively. Based on the unified query representation, a differentiable
multi-task interaction scheme is proposed to exploit the correlation between
perception and prediction. Even without human-annotated HD map or agent's
historical tracking trajectory as guidance information, PIP realizes end-to-end
multi-agent motion prediction and achieves better performance than
tracking-based and HD-map-based methods. PIP provides comprehensive high-level
information of the driving scene (vectorized static map and dynamic objects
with motion information), and contributes to the downstream planning and
control. Code and models will be released for facilitating further research.
- Abstract(参考訳): 動き予測は、自律走行のシナリオにおける動的物体と静的マップ要素の知覚に非常に関係している。
本稿では,オンラインマッピング,オブジェクト検出,動き予測を共同でインタラクティブに行う,エンドツーエンドのトランスフォーマーベースのフレームワークであるpipを提案する。
PIPはマップクエリ、エージェントクエリ、モードクエリを利用して、それぞれマップ要素、エージェント、モーションインテントのインスタンスワイズ情報をエンコードする。
統一された問合せ表現に基づいて,知覚と予測の相関を生かすために,微分可能なマルチタスクインタラクションスキームを提案する。
人間の注釈付きHDマップやエージェントの履歴追跡軌跡をガイダンス情報として用いなくても、PIPはエンドツーエンドのマルチエージェント動作予測を実現し、トラッキングベースやHDマップベースの手法よりも優れたパフォーマンスを実現する。
PIPは、運転シーンの包括的な高レベル情報(ベクトル化された静的マップとモーション情報を持つ動的オブジェクト)を提供し、下流の計画と制御に寄与する。
コードとモデルは、さらなる研究を促進するためにリリースされる。
関連論文リスト
- MFTraj: Map-Free, Behavior-Driven Trajectory Prediction for Autonomous Driving [15.965681867350215]
本稿では,自律走行に適した軌道予測モデルを提案する。
歴史的軌跡データと新しい幾何学的動的グラフに基づく行動認識モジュールを組み合わせる。
計算効率とパラメータオーバーヘッドの低減を実現している。
論文 参考訳(メタデータ) (2024-05-02T13:13:52Z) - PPAD: Iterative Interactions of Prediction and Planning for End-to-end Autonomous Driving [57.89801036693292]
PPAD(Iterative Interaction of Prediction and Planning Autonomous Driving)は、予測と計画のより良い統合を目的とした、タイムステップワイドなインタラクションである。
我々は,階層的動的キーオブジェクトに着目したego-to-agent,ego-to-map,ego-to-BEVインタラクション機構を設計し,インタラクションをモデル化する。
論文 参考訳(メタデータ) (2023-11-14T11:53:24Z) - Pixel State Value Network for Combined Prediction and Planning in
Interactive Environments [9.117828575880303]
本研究は,予測と計画を組み合わせた深層学習手法を提案する。
U-Netアーキテクチャを持つ条件付きGANは、2つの高解像度画像シーケンスを予測するために訓練される。
結果は、対立する目的の中で車線の変化のような複雑な状況において直感的な行動を示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:13Z) - Vehicle Motion Forecasting using Prior Information and Semantic-assisted
Occupancy Grid Maps [6.99274104609965]
運動は、センサーデータの不確実性、未来の非決定論的性質、複雑な振る舞いによって、自動運転車にとって困難なタスクである。
本稿では,シーンを動的占有グリッドマップ(DOGM)として表現することで,この問題に対処する。
本研究では,車両の挙動を予測するための時間的および確率的アプローチを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-08-08T14:49:44Z) - Towards Explainable Motion Prediction using Heterogeneous Graph
Representations [3.675875935838632]
動き予測システムは、自動運転車が安全かつ効率的な計画を実行できるようにする交通シナリオの将来の挙動を捉えることを目的としている。
GNNベースのアプローチは、これらの相互作用を自然にモデル化するのに適しているため、近年注目を集めている。
本研究では,異なるアプローチを用いて動作予測システムの説明可能性を向上させることを目的とする。
論文 参考訳(メタデータ) (2022-12-07T17:43:42Z) - Deep Interactive Motion Prediction and Planning: Playing Games with
Motion Prediction Models [162.21629604674388]
本研究は,新しい対話型マルチエージェントニューラルネットワークポリシを予測モデルの一部として使用するゲーム理論モデル予測制御器(MPC)を提案する。
本手法の成功の基礎は,周辺エージェントの状態と地図情報に基づいて車両を操縦できる,新しいマルチエージェントポリシーネットワークの設計である。
論文 参考訳(メタデータ) (2022-04-05T17:58:18Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - AMENet: Attentive Maps Encoder Network for Trajectory Prediction [35.22312783822563]
軌道予測は、安全な将来の動きを計画するための応用に不可欠である。
我々は Attentive Maps Network (AMENet) というエンドツーエンド生成モデルを提案する。
AMENetはエージェントの動作と相互作用情報をエンコードし、高精度でリアルなマルチパス軌道予測を行う。
論文 参考訳(メタデータ) (2020-06-15T10:00:07Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。