論文の概要: VideoGAN-based Trajectory Proposal for Automated Vehicles
- arxiv url: http://arxiv.org/abs/2506.16209v1
- Date: Thu, 19 Jun 2025 10:57:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.035969
- Title: VideoGAN-based Trajectory Proposal for Automated Vehicles
- Title(参考訳): ビデオGANによる自動走行車の軌道提案
- Authors: Annajoyce Mariani, Kira Maag, Hanno Gottschalk,
- Abstract要約: 本稿では,鳥眼視(BEV)の交通シナリオのビデオに基づいて訓練された生成ネットワーク(GAN)が,統計的に正確な軌跡を生成できるかどうかを検討する。
そこで本研究では,ビデオ生成モデルのトレーニングデータとして,低解像度のBEV占有グリッドビデオを使用するパイプラインを提案する。
我々は,20ms未満の推論時間で,100GPU時間以内のトレーニングで最高の結果を得た。
- 参考スコア(独自算出の注目度): 1.693200946453174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Being able to generate realistic trajectory options is at the core of increasing the degree of automation of road vehicles. While model-driven, rule-based, and classical learning-based methods are widely used to tackle these tasks at present, they can struggle to effectively capture the complex, multimodal distributions of future trajectories. In this paper we investigate whether a generative adversarial network (GAN) trained on videos of bird's-eye view (BEV) traffic scenarios can generate statistically accurate trajectories that correctly capture spatial relationships between the agents. To this end, we propose a pipeline that uses low-resolution BEV occupancy grid videos as training data for a video generative model. From the generated videos of traffic scenarios we extract abstract trajectory data using single-frame object detection and frame-to-frame object matching. We particularly choose a GAN architecture for the fast training and inference times with respect to diffusion models. We obtain our best results within 100 GPU hours of training, with inference times under 20\,ms. We demonstrate the physical realism of the proposed trajectories in terms of distribution alignment of spatial and dynamic parameters with respect to the ground truth videos from the Waymo Open Motion Dataset.
- Abstract(参考訳): 現実的な軌道オプションを生成できることは、道路車両の自動化の度合いを高める中核にある。
現在、モデル駆動、ルールベース、古典的な学習ベースの手法はこれらの課題に対処するために広く使われているが、将来の軌跡の複雑なマルチモーダル分布を効果的に捉えるのに苦労する可能性がある。
本稿では,鳥眼視(BEV)トラヒックの映像に基づいて訓練されたGAN(Generative Adversarial Network)が,エージェント間の空間的関係を正確に把握する統計的に正確な軌跡を生成できるかどうかを検討する。
そこで本研究では,ビデオ生成モデルのトレーニングデータとして,低解像度のBEV占有グリッドビデオを使用するパイプラインを提案する。
トラフィックシナリオの生成されたビデオから,単一フレームオブジェクト検出とフレーム間オブジェクトマッチングを用いて,抽象トラジェクトリデータを抽出する。
拡散モデルに関して、高速なトレーニングと推論時間のために、特にGANアーキテクチャを選択します。
トレーニングの100GPU時間内に,20×ms以下の推論時間で最高の結果を得る。
本稿では,Waymo Open Motion Dataset の地上実写映像に対する空間パラメータと動的パラメータの分布アライメントの観点から,提案トラジェクトリの物理的実在性を実証する。
関連論文リスト
- VeTraSS: Vehicle Trajectory Similarity Search Through Graph Modeling and Representation Learning [9.325787573209201]
軌道類似性探索は自律運転において重要な役割を果たす。
車両軌道類似度探索のためのエンドツーエンドパイプラインであるVeTraSSを提案する。
論文 参考訳(メタデータ) (2024-04-11T06:19:55Z) - Pre-training on Synthetic Driving Data for Trajectory Prediction [61.520225216107306]
軌道予測におけるデータ不足の問題を緩和するパイプラインレベルのソリューションを提案する。
我々は、駆動データを生成するためにHDマップ拡張とトラジェクトリ合成を採用し、それらを事前学習することで表現を学習する。
我々は、データ拡張と事前学習戦略の有効性を実証するための広範な実験を行う。
論文 参考訳(メタデータ) (2023-09-18T19:49:22Z) - TAPIR: Tracking Any Point with per-frame Initialization and temporal
Refinement [64.11385310305612]
本稿では,ビデオシーケンスを通して任意の物理面上の問合せ点を効果的に追跡する,TAP(Tracking Any Point)の新しいモデルを提案する。
提案手法では,(1)他のフレームの問合せ点に対する適切な候補点マッチングを独立に特定するマッチング段階と,(2)局所的相関に基づいてトラジェクトリと問合せの両方を更新する改良段階の2段階を用いる。
結果として得られたモデルは、DAVISにおける平均約20%の絶対平均ジャカード(AJ)改善によって示されるように、TAP-Vidベンチマークにおける大きなマージンで、すべてのベースライン手法を上回ります。
論文 参考訳(メタデータ) (2023-06-14T17:07:51Z) - Trace and Pace: Controllable Pedestrian Animation via Guided Trajectory
Diffusion [83.88829943619656]
本研究では,現実的な歩行者軌跡生成手法と,ユーザ定義目標を達成するために制御可能なフルボディアニメーションを提案する。
我々のガイド付き拡散モデルでは,対象とする経路,速度,特定社会集団による軌道の制約が可能である。
本稿では,アニメーションコントローラのRLトレーニング中に学習した値関数を用いて,拡散を誘導し,特定のシナリオに適した軌道を生成することを提案する。
論文 参考訳(メタデータ) (2023-04-04T15:46:42Z) - TrafficBots: Towards World Models for Autonomous Driving Simulation and
Motion Prediction [149.5716746789134]
我々は,データ駆動型交通シミュレーションを世界モデルとして定式化できることを示した。
動作予測とエンドツーエンドの運転に基づくマルチエージェントポリシーであるTrafficBotsを紹介する。
オープンモーションデータセットの実験は、TrafficBotsが現実的なマルチエージェント動作をシミュレートできることを示している。
論文 参考訳(メタデータ) (2023-03-07T18:28:41Z) - Generating Synthetic Training Data for Deep Learning-Based UAV
Trajectory Prediction [11.241614693184323]
本稿では,無人航空機車(UAV)の合成軌道データを生成する手法を提案する。
実世界のUAV追跡データセットにおいて,RNNに基づく予測モデルが従来の参照モデルより優れていることを示す。
論文 参考訳(メタデータ) (2021-07-01T13:08:31Z) - A Deep Learning Framework for Generation and Analysis of Driving
Scenario Trajectories [2.908482270923597]
本研究では,運転シナリオトラジェクトリの生成と解析のための統合型ディープラーニングフレームワークを提案する。
本研究では,フィールド内データ収集から得られた実世界のシナリオトラジェクトリにおけるフレームワークの性能について実験的に検討する。
論文 参考訳(メタデータ) (2020-07-28T23:33:05Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。