論文の概要: RedMotion: Motion Prediction via Redundancy Reduction
- arxiv url: http://arxiv.org/abs/2306.10840v3
- Date: Sat, 25 May 2024 19:26:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 12:18:33.802115
- Title: RedMotion: Motion Prediction via Redundancy Reduction
- Title(参考訳): RedMotion:冗長化による動き予測
- Authors: Royden Wagner, Omer Sahin Tas, Marvin Klemp, Carlos Fernandez, Christoph Stiller,
- Abstract要約: 自動運転車における動き予測のためのトランスフォーマーモデルであるRedMotionを紹介する。
RedMotionは冗長性低減を通じて環境表現を学習する。
提案手法は,動作予測チャレンジにおけるHPTRやMTR++と比較して,競合的な結果が得られる。
- 参考スコア(独自算出の注目度): 13.956061785336159
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce RedMotion, a transformer model for motion prediction in self-driving vehicles that learns environment representations via redundancy reduction. Our first type of redundancy reduction is induced by an internal transformer decoder and reduces a variable-sized set of local road environment tokens, representing road graphs and agent data, to a fixed-sized global embedding. The second type of redundancy reduction is obtained by self-supervised learning and applies the redundancy reduction principle to embeddings generated from augmented views of road environments. Our experiments reveal that our representation learning approach outperforms PreTraM, Traj-MAE, and GraphDINO in a semi-supervised setting. Moreover, RedMotion achieves competitive results compared to HPTR or MTR++ in the Waymo Motion Prediction Challenge. Our open-source implementation is available at: https://github.com/kit-mrt/future-motion
- Abstract(参考訳): 冗長性低減により環境表現を学習する自動運転車における動き予測のためのトランスフォーマーモデルであるRedMotionを紹介する。
我々の最初の冗長性低減は、内部トランスデコーダによって誘導され、道路グラフとエージェントデータを表すローカルな道路環境トークンの可変サイズのセットを固定サイズのグローバル埋め込みに還元する。
第2の冗長性低減法は自己教師型学習によって得られ,道路環境の拡張ビューから生成された埋め込みに冗長性低減原理を適用した。
実験の結果,PreTraM,Traj-MAE,GraphDINOを半教師付き環境下で比較した。
さらに、RedMotionはWaymo Motion Prediction ChallengeのHPTRやMTR++と比較して、競合的な結果が得られる。
私たちのオープンソース実装は、https://github.com/kit-mrt/future-motion.comで利用可能です。
関連論文リスト
- Mitigating Covariate Shift in Imitation Learning for Autonomous Vehicles Using Latent Space Generative World Models [60.87795376541144]
World Model(ワールドモデル)は、エージェントの次の状態を予測できるニューラルネットワークである。
エンド・ツー・エンドのトレーニングでは、人間のデモで観察された状態と整合してエラーから回復する方法を学ぶ。
クローズドループ試験における先行技術に有意な改善がみられた定性的,定量的な結果を示す。
論文 参考訳(メタデータ) (2024-09-25T06:48:25Z) - OFMPNet: Deep End-to-End Model for Occupancy and Flow Prediction in Urban Environment [0.0]
環境中の全ての動的オブジェクトの将来の挙動を予測するために,エンド・ツー・エンドのニューラルネットワーク手法を提案する。
本稿では, 終点誤差の大幅な低減を図った新しい時間重み付きモーションフロー損失を提案する。
論文 参考訳(メタデータ) (2024-04-02T19:37:58Z) - JointMotion: Joint Self-Supervision for Joint Motion Prediction [10.44846560021422]
JointMotionは、自動運転車における関節運動予測のための自己教師付き事前訓練手法である。
提案手法は,Wayformer,HPTR,Scene Transformerの各モデルにおける最終変位誤差を,それぞれ3%,8%,12%削減する。
論文 参考訳(メタデータ) (2024-03-08T17:54:38Z) - MTR++: Multi-Agent Motion Prediction with Symmetric Scene Modeling and
Guided Intention Querying [110.83590008788745]
自律運転システムにとって、複雑な運転シナリオを理解し、情報的な決定を下すためには、動きの予測が不可欠である。
本稿では,これらの課題に対処するためのMotion TRansformer (MTR) フレームワークを提案する。
最初のMTRフレームワークは、学習可能な意図クエリを備えたトランスフォーマーエンコーダ-デコーダ構造を利用する。
複数のエージェントに対するマルチモーダル動作を同時に予測するMTR++フレームワークを導入する。
論文 参考訳(メタデータ) (2023-06-30T16:23:04Z) - CEMFormer: Learning to Predict Driver Intentions from In-Cabin and
External Cameras via Spatial-Temporal Transformers [5.572431452586636]
CEM(Cross-View Episodic Memory Transformer)と呼ばれる新しいフレームワークを導入する。
CEMは統合メモリ表現を使用して、ドライバーの意図予測を改善する。
本稿では,運転コンテキストを補助的監視信号として組み込んで予測性能を向上させる新しいコンテキスト一貫性損失を提案する。
論文 参考訳(メタデータ) (2023-05-13T05:27:36Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Trajectory Prediction in Autonomous Driving with a Lane Heading
Auxiliary Loss [1.1470070927586014]
本稿では,全ての予測モードにおいて予測駆動ルールを強制することにより,軌道予測モデルを強化する損失関数を提案する。
軌道予測への我々の貢献は2倍であり、オフロードレート計量の故障事例に対処する新しい指標を提案する。
次に、この補助損失を用いて、MTP(Multiple trajectory Prediction)モデルとMultiPathモデルを拡張する。
論文 参考訳(メタデータ) (2020-11-12T22:51:25Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z) - Improving Movement Predictions of Traffic Actors in Bird's-Eye View
Models using GANs and Differentiable Trajectory Rasterization [12.652210024012374]
自動運転パズルの最も重要なピースの1つは、周囲の交通機関の将来の動きを予測するタスクである。
一方はトップダウンのシーン化と他方はGAN(Generative Adrial Networks)に基づく手法が特に成功したことが示されている。
本稿では,これら2つの方向に基づいて,Aversa-based conditional GANアーキテクチャを提案する。
提案手法を実世界の大規模データセット上で評価し,最先端のGANベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-14T00:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。