論文の概要: Video Killed the HD-Map: Predicting Driving Behavior Directly From Drone
Images
- arxiv url: http://arxiv.org/abs/2305.11856v1
- Date: Fri, 19 May 2023 17:48:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 13:00:24.737401
- Title: Video Killed the HD-Map: Predicting Driving Behavior Directly From Drone
Images
- Title(参考訳): ビデオがhd-mapを殺し、ドローン画像から直接運転行動を予測する
- Authors: Yunpeng Liu, Vasileios Lioutas, Jonathan Wilder Lavington, Matthew
Niedoba, Justice Sefas, Setareh Dabiri, Dylan Green, Xiaoxuan Liang, Berend
Zwartsenberg, Adam \'Scibior, Frank Wood
- Abstract要約: 行動駆動モデルは、道路状況情報を利用して、制御された全てのエージェントの軌道を共同で予測することを学ぶ。
近年の研究では、これらのモデルがトレーニングに利用できる人間のデータ量を増やすことで大きな恩恵を受けることが示されている。
本稿では,最小限のアノテーションを必要とするドローンバードビュー画像に基づく地図表現を提案する。
- 参考スコア(独自算出の注目度): 14.547359434855695
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The development of algorithms that learn behavioral driving models using
human demonstrations has led to increasingly realistic simulations. In general,
such models learn to jointly predict trajectories for all controlled agents by
exploiting road context information such as drivable lanes obtained from
manually annotated high-definition (HD) maps. Recent studies show that these
models can greatly benefit from increasing the amount of human data available
for training. However, the manual annotation of HD maps which is necessary for
every new location puts a bottleneck on efficiently scaling up human traffic
datasets. We propose a drone birdview image-based map (DBM) representation that
requires minimal annotation and provides rich road context information. We
evaluate multi-agent trajectory prediction using the DBM by incorporating it
into a differentiable driving simulator as an image-texture-based
differentiable rendering module. Our results demonstrate competitive
multi-agent trajectory prediction performance when using our DBM representation
as compared to models trained with rasterized HD maps.
- Abstract(参考訳): 人間のデモを使って行動駆動モデルを学ぶアルゴリズムの開発は、より現実的なシミュレーションへとつながった。
一般に、このようなモデルは、手動で注釈付き高精細地図(HD)から得られる乾燥車線などの道路状況情報を利用して、制御対象の軌跡を共同で予測することを学ぶ。
近年の研究では、これらのモデルがトレーニングに利用できる人間のデータ量を増やすことで大きな恩恵を受けることが示されている。
しかし、新しい場所ごとに必要となるHDマップのマニュアルアノテーションは、人間のトラフィックデータセットを効率的にスケールアップする上でボトルネックとなる。
本稿では,最小限のアノテーションを必要とするドローンバードビュー画像ベースマップ(DBM)表現を提案する。
我々は,DBMを用いたマルチエージェント軌道予測を,画像テクスチャベースの微分可能なレンダリングモジュールとして,識別可能な駆動シミュレータに組み込むことで評価した。
本研究は,DBM表現を用いた場合,ラスタ化HDマップを用いたモデルと比較して,競合するマルチエージェント軌道予測性能を示す。
関連論文リスト
- MapsTP: HD Map Images Based Multimodal Trajectory Prediction for Automated Vehicles [8.229161517598373]
我々はResNet-50を利用して高精細マップデータから画像の特徴を抽出し、IMUセンサデータを用いて速度、加速度、ヨーレートを計算する。
時間確率ネットワークを用いて潜在的な軌道を計算し、最も正確で高い確率の軌道経路を選択する。
論文 参考訳(メタデータ) (2024-07-08T10:45:30Z) - MFTraj: Map-Free, Behavior-Driven Trajectory Prediction for Autonomous Driving [15.965681867350215]
本稿では,自律走行に適した軌道予測モデルを提案する。
歴史的軌跡データと新しい幾何学的動的グラフに基づく行動認識モジュールを組み合わせる。
計算効率とパラメータオーバーヘッドの低減を実現している。
論文 参考訳(メタデータ) (2024-05-02T13:13:52Z) - Guiding Attention in End-to-End Driving Models [49.762868784033785]
模倣学習によって訓練された視覚ベースのエンドツーエンドの運転モデルは、自動運転のための安価なソリューションにつながる可能性がある。
トレーニング中に損失項を追加することにより、これらのモデルの注意を誘導し、運転品質を向上させる方法について検討する。
従来の研究とは対照的に,本手法では,テスト期間中にこれらの有意義なセマンティックマップを利用できない。
論文 参考訳(メタデータ) (2024-04-30T23:18:51Z) - SemanticFormer: Holistic and Semantic Traffic Scene Representation for Trajectory Prediction using Knowledge Graphs [3.733790302392792]
自動運転におけるトレイ予測は、運転シーンのすべての関連状況の正確な表現に依存している。
本稿では,交通シーングラフの推論によるマルチモーダル軌道の予測手法であるSemanticFormerを提案する。
論文 参考訳(メタデータ) (2024-04-30T09:11:04Z) - Trajeglish: Traffic Modeling as Next-Token Prediction [67.28197954427638]
自動運転開発における長年の課題は、記録された運転ログからシードされた動的運転シナリオをシミュレートすることだ。
車両、歩行者、サイクリストが運転シナリオでどのように相互作用するかをモデル化するために、離散シーケンスモデリングのツールを適用します。
我々のモデルはSim Agents Benchmarkを上回り、リアリズムメタメトリックの先行作業の3.3%、インタラクションメトリックの9.9%を上回ります。
論文 参考訳(メタデータ) (2023-12-07T18:53:27Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - Fully End-to-end Autonomous Driving with Semantic Depth Cloud Mapping
and Multi-Agent [2.512827436728378]
本稿では,エンド・ツー・エンドとマルチタスクの学習方法を用いて学習した新しいディープラーニングモデルを提案する。
このモデルは,CARLAシミュレータ上で,現実の環境を模倣するために,通常の状況と異なる天候のシナリオを用いて評価する。
論文 参考訳(メタデータ) (2022-04-12T03:57:01Z) - Geo-Context Aware Study of Vision-Based Autonomous Driving Models and
Spatial Video Data [9.883009014227815]
視覚に基づくディープラーニング(DL)手法は,大規模クラウドソースのビデオデータセットから自律走行モデルの学習に大きな進歩をもたらした。
我々は,大規模ADMビデオデータとともに,自律運転モデル(ADM)予測のための地理コンテキスト対応可視化システムを開発した。
論文 参考訳(メタデータ) (2021-08-20T17:33:54Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。