論文の概要: Exploring Map-based Features for Efficient Attention-based Vehicle
Motion Prediction
- arxiv url: http://arxiv.org/abs/2205.13071v1
- Date: Wed, 25 May 2022 22:38:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 15:06:26.601633
- Title: Exploring Map-based Features for Efficient Attention-based Vehicle
Motion Prediction
- Title(参考訳): 効率的な注意に基づく車の動き予測のための地図に基づく特徴探索
- Authors: Carlos G\'omez-Hu\'elamo, Marcos V. Conde, Miguel Ortiz
- Abstract要約: 複数のエージェントの動作予測は、任意に複雑な環境において重要なタスクである。
本稿では,効率的な注意モデルを用いてArgoverse 1.0ベンチマークで競合性能を実現する方法を示す。
- 参考スコア(独自算出の注目度): 3.222802562733787
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Motion prediction (MP) of multiple agents is a crucial task in arbitrarily
complex environments, from social robots to self-driving cars. Current
approaches tackle this problem using end-to-end networks, where the input data
is usually a rendered top-view of the scene and the past trajectories of all
the agents; leveraging this information is a must to obtain optimal
performance. In that sense, a reliable Autonomous Driving (AD) system must
produce reasonable predictions on time, however, despite many of these
approaches use simple ConvNets and LSTMs, models might not be efficient enough
for real-time applications when using both sources of information (map and
trajectory history). Moreover, the performance of these models highly depends
on the amount of training data, which can be expensive (particularly the
annotated HD maps). In this work, we explore how to achieve competitive
performance on the Argoverse 1.0 Benchmark using efficient attention-based
models, which take as input the past trajectories and map-based features from
minimal map information to ensure efficient and reliable MP. These features
represent interpretable information as the driveable area and plausible goal
points, in opposition to black-box CNN-based methods for map processing.
- Abstract(参考訳): 複数のエージェントの動作予測(MP)は、社会ロボットから自動運転車まで、任意の複雑な環境において重要なタスクである。
現在のアプローチでは、エンド・ツー・エンドのネットワークを使用してこの問題に取り組む。入力データは、通常、シーンのレンダリングされたトップビューであり、すべてのエージェントの過去の軌跡である。
その意味では、信頼できる自律運転(AD)システムは、時間に応じて合理的な予測を生成する必要があるが、これらのアプローチの多くは単純なConvNetとLSTMを使っているにもかかわらず、両方の情報ソース(マップとトラジェクトリ履歴)を使用する場合、モデルはリアルタイムアプリケーションに十分な効率を発揮できないかもしれない。
さらに、これらのモデルの性能はトレーニングデータ量に大きく依存しており、これは高価である(特に注釈付きhdマップ)。
本研究は,地図情報から過去のトラジェクトリやマップベースの特徴を入力として,効率的で信頼性の高いMPを実現するための,Argoverse 1.0ベンチマーク上での競合性能を実現する方法について検討する。
これらの特徴は、地図処理のブラックボックスCNNベースの手法とは対照的に、駆動可能な領域と可算なゴールポイントとして解釈可能な情報を表す。
関連論文リスト
- MFTraj: Map-Free, Behavior-Driven Trajectory Prediction for Autonomous Driving [15.965681867350215]
本稿では,自律走行に適した軌道予測モデルを提案する。
歴史的軌跡データと新しい幾何学的動的グラフに基づく行動認識モジュールを組み合わせる。
計算効率とパラメータオーバーヘッドの低減を実現している。
論文 参考訳(メタデータ) (2024-05-02T13:13:52Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - SCOUT+: Towards Practical Task-Driven Drivers' Gaze Prediction [12.246649738388388]
SCOUT+はドライバーの視線予測のためのタスクおよびコンテキスト認識モデルである。
DR(eye)VEとBDD-Aの2つのデータセットでモデルを評価する。
論文 参考訳(メタデータ) (2024-04-12T18:29:10Z) - Efficient Baselines for Motion Prediction in Autonomous Driving [7.608073471097835]
複数の周辺エージェントの運動予測(MP)は、任意に複雑な環境において重要な課題である。
注意機構やGNNを含むMPのためのSOTA(State-Of-The-Art)技術を用いて,コンパクトなモデルを開発することを目指している。
論文 参考訳(メタデータ) (2023-09-06T22:18:16Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - A Fast and Map-Free Model for Trajectory Prediction in Traffics [2.435517936694533]
本稿では,交通地図に依存しない効率的な軌道予測モデルを提案する。
注意機構、LSTM、グラフ畳み込みネットワーク、時間変換器を包括的に活用することにより、我々のモデルは全てのエージェントのリッチな動的および相互作用情報を学習することができる。
提案モデルでは,既存のマップフリー手法と比較して高い性能を達成し,Argoverseデータセット上のほとんどのマップベース最先端手法を超越する。
論文 参考訳(メタデータ) (2023-07-19T08:36:31Z) - Video Killed the HD-Map: Predicting Multi-Agent Behavior Directly From
Aerial Images [14.689298253430568]
本稿では,最小限のアノテーションを必要とする航空画像ベースマップ(AIM)の表現を提案し,歩行者や車両などの交通機関に道路状況情報を提供する。
以上の結果から,特にAIM表現を用いた歩行者の競合的マルチエージェント軌道予測性能が示された。
論文 参考訳(メタデータ) (2023-05-19T17:48:01Z) - PreTraM: Self-Supervised Pre-training via Connecting Trajectory and Map [58.53373202647576]
軌道予測のための自己教師付き事前学習方式であるPreTraMを提案する。
1) トラジェクティブ・マップ・コントラクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・コントラクティブ・ラーニング)、(2) トラジェクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)、(2) トラジェクティブ・コントラクティブ・ラーニング(トラジェクティブ・ラーニング)の2つのパートから構成される。
AgentFormerやTrajectron++といった一般的なベースラインに加えて、PreTraMは、挑戦的なnuScenesデータセット上で、FDE-10でパフォーマンスを5.5%と6.9%向上させる。
論文 参考訳(メタデータ) (2022-04-21T23:01:21Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。