論文の概要: SparScene: Efficient Traffic Scene Representation via Sparse Graph Learning for Large-Scale Trajectory Generation
- arxiv url: http://arxiv.org/abs/2512.21133v1
- Date: Wed, 24 Dec 2025 12:02:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.504651
- Title: SparScene: Efficient Traffic Scene Representation via Sparse Graph Learning for Large-Scale Trajectory Generation
- Title(参考訳): SparScene:大規模軌道生成のためのスパースグラフ学習による効率的な交通シーン表現
- Authors: Xiaoyu Mo, Jintian Ge, Zifan Wang, Chen Lv, Karl Henrik Johansson,
- Abstract要約: SparSceneは、効率的でスケーラブルなトラフィックシーン表現のために設計されたスパースグラフ学習フレームワークである。
エージェントマップとエージェントエージェントの相互作用を集約し、効率とスケーラビリティを大幅に改善したコンパクトなシーン表現を生成する。
5ミリ秒以内のシーンで200以上のエージェントのトラジェクトリを生成し、5000以上のエージェントと17,000レーンにスケールし、わずか54ミリ秒の推論時間でGPUメモリは2.9GBである。
- 参考スコア(独自算出の注目度): 45.994774635846625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent trajectory generation is a core problem for autonomous driving and intelligent transportation systems. However, efficiently modeling the dynamic interactions between numerous road users and infrastructures in complex scenes remains an open problem. Existing methods typically employ distance-based or fully connected dense graph structures to capture interaction information, which not only introduces a large number of redundant edges but also requires complex and heavily parameterized networks for encoding, thereby resulting in low training and inference efficiency, limiting scalability to large and complex traffic scenes. To overcome the limitations of existing methods, we propose SparScene, a sparse graph learning framework designed for efficient and scalable traffic scene representation. Instead of relying on distance thresholds, SparScene leverages the lane graph topology to construct structure-aware sparse connections between agents and lanes, enabling efficient yet informative scene graph representation. SparScene adopts a lightweight graph encoder that efficiently aggregates agent-map and agent-agent interactions, yielding compact scene representations with substantially improved efficiency and scalability. On the motion prediction benchmark of the Waymo Open Motion Dataset (WOMD), SparScene achieves competitive performance with remarkable efficiency. It generates trajectories for more than 200 agents in a scene within 5 ms and scales to more than 5,000 agents and 17,000 lanes with merely 54 ms of inference time with a GPU memory of 2.9 GB, highlighting its superior scalability for large-scale traffic scenes.
- Abstract(参考訳): 多エージェント軌道生成は、自律運転およびインテリジェント交通システムにおける中核的な問題である。
しかし、複雑な場面における多くの道路利用者とインフラ間の動的相互作用を効率的にモデル化することは、未解決の問題である。
既存の手法では、多くの冗長なエッジを導入するだけでなく、符号化のために複雑なパラメータ化されたネットワークを必要とするため、トレーニングや推論の効率が低くなり、スケーラビリティが大規模で複雑な交通シーンに制限される。
既存の手法の限界を克服するために,効率的なスケーラブルなトラフィックシーン表現を目的としたスパースグラフ学習フレームワークであるSparSceneを提案する。
距離しきい値に頼る代わりに、SparSceneはレーングラフトポロジを利用してエージェントとレーンの間のスパース接続を構築する。
SparSceneは、エージェントマップとエージェントエージェントの相互作用を効率的に集約する軽量グラフエンコーダを採用し、効率とスケーラビリティを大幅に向上したコンパクトなシーン表現を提供する。
Waymo Open Motion Dataset (WOMD) の動作予測ベンチマークでは、SparSceneは優れた効率で競争性能を達成する。
5ミリ秒以内のシーンで200以上のエージェントのトラジェクトリを生成し、5,000以上のエージェントと17,000レーンにスケールし、わずか54ミリ秒の推論時間でGPUメモリは2.9GBである。
関連論文リスト
- GraphTrafficGPT: Enhancing Traffic Management Through Graph-Based AI Agent Coordination [0.8999666725996978]
GraphTrafficGPTは、有向グラフのノードとエッジとしてタスクと依存関係を表現し、効率的な並列実行と動的リソース割り当てを可能にする。
Brain Agentは、ユーザクエリを分解し、最適化された依存グラフを構築し、データ検索、分析、可視化、シミュレーションのための特別なエージェントのネットワークを調整する。
実験の結果,GraphTrafficGPTはトークン消費量を50.2%削減し,平均応答遅延を19.0%削減した。
論文 参考訳(メタデータ) (2025-07-17T19:41:09Z) - GITSR: Graph Interaction Transformer-based Scene Representation for Multi Vehicle Collaborative Decision-making [9.910230703889956]
本研究では,交通状態の空間的相互作用の効率的な表現とモデル化に焦点を当てた。
本研究では,グラフインタラクショントランスフォーマに基づくシーン表現のための効果的なフレームワークであるGITSRを提案する。
論文 参考訳(メタデータ) (2024-11-03T15:27:26Z) - Elastic Interaction Energy-Informed Real-Time Traffic Scene Perception [8.429178814528617]
EIEGSegという名前のトポロジ対応エネルギー損失関数に基づくネットワークトレーニング戦略を提案する。
EIEGSegは、リアルタイムの交通シーン認識におけるマルチクラスセグメンテーションのために設計されている。
以上の結果から,EIEGSegは,特にリアルタイム軽量ネットワークにおいて,性能を継続的に向上することを示す。
論文 参考訳(メタデータ) (2023-10-02T01:30:42Z) - Dynamic Spatial Sparsification for Efficient Vision Transformers and
Convolutional Neural Networks [88.77951448313486]
視覚データにおける空間空間空間性を利用したモデルアクセラレーションのための新しい手法を提案する。
本稿では,冗長トークンを具現化する動的トークンスペーシフィケーションフレームワークを提案する。
提案手法は,CNNや階層型視覚変換器などの階層モデルに拡張する。
論文 参考訳(メタデータ) (2022-07-04T17:00:51Z) - GraphMapper: Efficient Visual Navigation by Scene Graph Generation [13.095640044666348]
本研究では,自律エージェントが環境の3次元シーングラフを蓄積する学習を学習する手法を提案する。
当社のアプローチであるGraphMapperは,既存のLearningベースのソリューションと連携して動作するモジュール式シーンエンコーダとして機能することを示します。
論文 参考訳(メタデータ) (2022-05-17T13:21:20Z) - SPIN Road Mapper: Extracting Roads from Aerial Images via Spatial and
Interaction Space Graph Reasoning for Autonomous Driving [64.10636296274168]
道路抽出は、自律航法システムを構築するための重要なステップである。
この問題に対して単に畳み込みニューラルネットワーク(ConvNets)を使用することは、画像内の道路セグメント間の遠い依存関係をキャプチャする非効率であるため、効果がない。
本研究では,ConvNetに接続した時,特徴写像から投影された空間空間および相互作用空間上に構築されたグラフの推論を行う空間空間グラフ推論(SPIN)モジュールを提案する。
論文 参考訳(メタデータ) (2021-09-16T03:52:17Z) - Multi-Agent Routing Value Iteration Network [88.38796921838203]
疎結合グラフの学習値に基づいてマルチエージェントルーティングを行うことができるグラフニューラルネットワークに基づくモデルを提案する。
最大25ノードのグラフ上で2つのエージェントでトレーニングしたモデルでは,より多くのエージェントやノードを持つ状況に容易に一般化できることが示されている。
論文 参考訳(メタデータ) (2020-07-09T22:16:45Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。