論文の概要: Video Killed the HD-Map: Predicting Multi-Agent Behavior Directly From
Aerial Images
- arxiv url: http://arxiv.org/abs/2305.11856v2
- Date: Wed, 20 Sep 2023 00:09:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 22:35:36.603293
- Title: Video Killed the HD-Map: Predicting Multi-Agent Behavior Directly From
Aerial Images
- Title(参考訳): 空中画像から直接マルチエージェント動作を予測するHD-Map
- Authors: Yunpeng Liu, Vasileios Lioutas, Jonathan Wilder Lavington, Matthew
Niedoba, Justice Sefas, Setareh Dabiri, Dylan Green, Xiaoxuan Liang, Berend
Zwartsenberg, Adam \'Scibior, Frank Wood
- Abstract要約: 本稿では,最小限のアノテーションを必要とする航空画像ベースマップ(AIM)の表現を提案し,歩行者や車両などの交通機関に道路状況情報を提供する。
以上の結果から,特にAIM表現を用いた歩行者の競合的マルチエージェント軌道予測性能が示された。
- 参考スコア(独自算出の注目度): 14.689298253430568
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The development of algorithms that learn multi-agent behavioral models using
human demonstrations has led to increasingly realistic simulations in the field
of autonomous driving. In general, such models learn to jointly predict
trajectories for all controlled agents by exploiting road context information
such as drivable lanes obtained from manually annotated high-definition (HD)
maps. Recent studies show that these models can greatly benefit from increasing
the amount of human data available for training. However, the manual annotation
of HD maps which is necessary for every new location puts a bottleneck on
efficiently scaling up human traffic datasets. We propose an aerial image-based
map (AIM) representation that requires minimal annotation and provides rich
road context information for traffic agents like pedestrians and vehicles. We
evaluate multi-agent trajectory prediction using the AIM by incorporating it
into a differentiable driving simulator as an image-texture-based
differentiable rendering module. Our results demonstrate competitive
multi-agent trajectory prediction performance especially for pedestrians in the
scene when using our AIM representation as compared to models trained with
rasterized HD maps.
- Abstract(参考訳): 人間のデモを使ってマルチエージェント行動モデルを学ぶアルゴリズムの開発は、自動運転の分野における現実的なシミュレーションへとつながった。
一般に、このようなモデルは、手動で注釈付き高精細地図(HD)から得られる乾燥車線などの道路状況情報を利用して、制御対象の軌跡を共同で予測することを学ぶ。
近年の研究では、これらのモデルがトレーニングに利用できる人間のデータ量を増やすことで大きな恩恵を受けることが示されている。
しかし、新しい場所ごとに必要となるHDマップのマニュアルアノテーションは、人間のトラフィックデータセットを効率的にスケールアップする上でボトルネックとなる。
本稿では,最小限のアノテーションを必要とする航空画像ベースマップ(AIM)の表現を提案し,歩行者や車両などの交通機関に道路状況情報を提供する。
画像テクスチャに基づく識別可能なレンダリングモジュールとして、識別可能な駆動シミュレータに組み込むことで、AIMを用いたマルチエージェント軌道予測を評価する。
以上の結果から,AIM表現をラスタ化HDマップで訓練したモデルと比較した場合,特に現場の歩行者に対して,競争力のあるマルチエージェント軌道予測性能を示す。
関連論文リスト
- MapsTP: HD Map Images Based Multimodal Trajectory Prediction for Automated Vehicles [8.229161517598373]
我々はResNet-50を利用して高精細マップデータから画像の特徴を抽出し、IMUセンサデータを用いて速度、加速度、ヨーレートを計算する。
時間確率ネットワークを用いて潜在的な軌道を計算し、最も正確で高い確率の軌道経路を選択する。
論文 参考訳(メタデータ) (2024-07-08T10:45:30Z) - MFTraj: Map-Free, Behavior-Driven Trajectory Prediction for Autonomous Driving [15.965681867350215]
本稿では,自律走行に適した軌道予測モデルを提案する。
歴史的軌跡データと新しい幾何学的動的グラフに基づく行動認識モジュールを組み合わせる。
計算効率とパラメータオーバーヘッドの低減を実現している。
論文 参考訳(メタデータ) (2024-05-02T13:13:52Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - SemanticFormer: Holistic and Semantic Traffic Scene Representation for Trajectory Prediction using Knowledge Graphs [3.733790302392792]
自動運転におけるトレイ予測は、運転シーンのすべての関連状況の正確な表現に依存している。
本稿では,交通シーングラフの推論によるマルチモーダル軌道の予測手法であるSemanticFormerを提案する。
論文 参考訳(メタデータ) (2024-04-30T09:11:04Z) - Trajeglish: Traffic Modeling as Next-Token Prediction [67.28197954427638]
自動運転開発における長年の課題は、記録された運転ログからシードされた動的運転シナリオをシミュレートすることだ。
車両、歩行者、サイクリストが運転シナリオでどのように相互作用するかをモデル化するために、離散シーケンスモデリングのツールを適用します。
我々のモデルはSim Agents Benchmarkを上回り、リアリズムメタメトリックの先行作業の3.3%、インタラクションメトリックの9.9%を上回ります。
論文 参考訳(メタデータ) (2023-12-07T18:53:27Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - Geo-Context Aware Study of Vision-Based Autonomous Driving Models and
Spatial Video Data [9.883009014227815]
視覚に基づくディープラーニング(DL)手法は,大規模クラウドソースのビデオデータセットから自律走行モデルの学習に大きな進歩をもたらした。
我々は,大規模ADMビデオデータとともに,自律運転モデル(ADM)予測のための地理コンテキスト対応可視化システムを開発した。
論文 参考訳(メタデータ) (2021-08-20T17:33:54Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。