論文の概要: End-to-end Contextual Perception and Prediction with Interaction
Transformer
- arxiv url: http://arxiv.org/abs/2008.05927v1
- Date: Thu, 13 Aug 2020 14:30:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 23:48:56.796059
- Title: End-to-end Contextual Perception and Prediction with Interaction
Transformer
- Title(参考訳): 対話変換器を用いたエンドツーエンドの文脈知覚と予測
- Authors: Lingyun Luke Li, Bin Yang, Ming Liang, Wenyuan Zeng, Mengye Ren, Sean
Segal, Raquel Urtasun
- Abstract要約: 我々は3次元物体の検出と将来の動きを自動運転の文脈で予測する問題に取り組む。
空間的・時間的依存関係を捉えるために,新しいトランスフォーマーアーキテクチャを用いたリカレントニューラルネットワークを提案する。
私たちのモデルはエンドツーエンドでトレーニングでき、リアルタイムで実行されます。
- 参考スコア(独自算出の注目度): 79.14001602890417
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we tackle the problem of detecting objects in 3D and
forecasting their future motion in the context of self-driving. Towards this
goal, we design a novel approach that explicitly takes into account the
interactions between actors. To capture their spatial-temporal dependencies, we
propose a recurrent neural network with a novel Transformer architecture, which
we call the Interaction Transformer. Importantly, our model can be trained
end-to-end, and runs in real-time. We validate our approach on two challenging
real-world datasets: ATG4D and nuScenes. We show that our approach can
outperform the state-of-the-art on both datasets. In particular, we
significantly improve the social compliance between the estimated future
trajectories, resulting in far fewer collisions between the predicted actors.
- Abstract(参考訳): 本稿では,物体を3dで検出し,その将来の動きを自律運転の文脈で予測する問題に取り組む。
この目標に向けて、アクター間の相互作用を明示的に考慮した新しいアプローチをデザインする。
空間的・時間的依存関係を捉えるために,新しいTransformerアーキテクチャを備えたリカレントニューラルネットワークを提案し,これをInteraction Transformerと呼ぶ。
重要なことは、私たちのモデルはエンドツーエンドでトレーニングされ、リアルタイムで実行されます。
我々は、ATG4DとnuScenesという2つの挑戦的な実世界のデータセットに対するアプローチを検証する。
当社のアプローチが,両データセットの最先端を上回ることを示します。
特に,予測される将来の軌道間の社会的コンプライアンスを著しく改善し,予測されるアクター間の衝突をはるかに少なくする。
関連論文リスト
- SocialFormer: Social Interaction Modeling with Edge-enhanced Heterogeneous Graph Transformers for Trajectory Prediction [3.733790302392792]
SocialFormerはエージェント間相互作用を意識した軌道予測手法である。
本稿では,エージェント動作の時間的社会的挙動をモデル化するために,ゲートリカレント単位(GRU)に基づくテンポラルエンコーダを提案する。
一般的なnuScenesベンチマークの軌道予測タスクとしてSocialFormerを評価し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-05-06T19:47:23Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Qualitative Prediction of Multi-Agent Spatial Interactions [5.742409080817885]
我々は,密集シーンにおけるマルチエージェントインタラクションをモデル化し,予測するための3つの新しいアプローチを提示し,ベンチマークする。
提案手法は、個々の相互作用を予測する静的および動的コンテキストを考慮したものである。
彼らはインプット・アンド・タイムアテンション・メカニズムを利用し、中・長期の地平線でテストされる。
論文 参考訳(メタデータ) (2023-06-30T18:08:25Z) - Goal-driven Self-Attentive Recurrent Networks for Trajectory Prediction [31.02081143697431]
人間の軌道予測は、自動運転車、社会認識ロボット、およびビデオ監視アプリケーションの主要な構成要素である。
本稿では,過去の観測位置のみに作用する軽量な注意型リカレントバックボーンを提案する。
我々はU-Netアーキテクチャに基づく共通のゴールモジュールを使用し、シーン準拠の目的地を予測するために意味情報を抽出する。
論文 参考訳(メタデータ) (2022-04-25T11:12:37Z) - Pedestrian Trajectory Prediction via Spatial Interaction Transformer
Network [7.150832716115448]
交通現場では、来るべき人々と出会うと、歩行者は突然回転したり、すぐに止まることがある。
このような予測不可能な軌道を予測するために、歩行者間の相互作用についての洞察を得ることができる。
本稿では,歩行者軌跡の相関関係を注意機構を用いて学習する空間的相互作用変換器(SIT)を提案する。
論文 参考訳(メタデータ) (2021-12-13T13:08:04Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Spatial-Channel Transformer Network for Trajectory Prediction on the
Traffic Scenes [2.7955111755177695]
本稿では,注意機能付き軌道予測のための空間チャネル変換器ネットワークを提案する。
エージェント間の社会的相互作用を測定するために、チャネルワイズモジュールが挿入される。
このネットワークは,交通現場における実世界の軌道予測データセットにおいて,有望な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-01-27T15:03:42Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。