論文の概要: Spatiotemporal Semantic V2X Framework for Cooperative Collision Prediction
- arxiv url: http://arxiv.org/abs/2601.17216v1
- Date: Fri, 23 Jan 2026 23:02:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.423444
- Title: Spatiotemporal Semantic V2X Framework for Cooperative Collision Prediction
- Title(参考訳): 協調的衝突予測のための時空間意味的V2Xフレームワーク
- Authors: Murat Arda Onsu, Poonam Lohan, Burak Kantarci, Aisha Syed, Matthew Andrews, Sean Kennedy,
- Abstract要約: 交通システム(ITS)は、道路の安全を確保し、事故の深刻度を低減するために、リアルタイムの衝突予測を要求する。
従来のアプローチは、道路側ユニット(RSU)から車両に生または高次元の知覚データを送信することに依存していた。
RSU搭載ビデオカメラが将来のフレームのセマンティック埋め込みを生成するセマンティックV2Xフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.862522659881676
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Intelligent Transportation Systems (ITS) demand real-time collision prediction to ensure road safety and reduce accident severity. Conventional approaches rely on transmitting raw video or high-dimensional sensory data from roadside units (RSUs) to vehicles, which is impractical under vehicular communication bandwidth and latency constraints. In this work, we propose a semantic V2X framework in which RSU-mounted cameras generate spatiotemporal semantic embeddings of future frames using the Video Joint Embedding Predictive Architecture (V-JEPA). To evaluate the system, we construct a digital twin of an urban traffic environment enabling the generation of d verse traffic scenarios with both safe and collision events. These embeddings of the future frame, extracted from V-JEPA, capture task-relevant traffic dynamics and are transmitted via V2X links to vehicles, where a lightweight attentive probe and classifier decode them to predict imminent collisions. By transmitting only semantic embeddings instead of raw frames, the proposed system significantly reduces communication overhead while maintaining predictive accuracy. Experimental results demonstrate that the framework with an appropriate processing method achieves a 10% F1-score improvement for collision prediction while reducing transmission requirements by four orders of magnitude compared to raw video. This validates the potential of semantic V2X communication to enable cooperative, real-time collision prediction in ITS.
- Abstract(参考訳): インテリジェントトランスポーテーション・システムズ(ITS)は、道路の安全を確保し、事故の深刻度を低減するために、リアルタイムの衝突予測を要求する。
従来のアプローチでは、道路側ユニット(RSU)から車両に生のビデオや高次元の知覚データを送信することに依存しており、これは車載通信帯域と遅延制約の下では実用的ではない。
本稿では,ビデオ統合埋め込み予測アーキテクチャ(V-JEPA)を用いて,RSU搭載カメラが将来のフレームの時空間的セマンティック埋め込みを生成するセマンティックV2Xフレームワークを提案する。
本システムを評価するために,都市交通環境のディジタルツインを構築し,安全イベントと衝突イベントの両方で,d-verseトラフィックシナリオの生成を可能にする。
これらの将来のフレームの埋め込みは、V-JEPAから抽出され、タスク関連トラフィックのダイナミクスをキャプチャし、V2Xリンクを介して車両に送信される。
生フレームの代わりにセマンティック埋め込みのみを送信することにより,予測精度を維持しつつ通信オーバーヘッドを大幅に低減する。
実験結果から, 適切な処理手法によるフレームワークは, 生ビデオに比べて4桁の伝送要求を低減しつつ, 衝突予測の10%のF1スコア向上を実現していることがわかった。
これにより、セマンティックV2X通信の可能性を検証し、ITSにおける協調的リアルタイム衝突予測を可能にする。
関連論文リスト
- Attention in Motion: Secure Platooning via Transformer-based Misbehavior Detection [0.6999740786886536]
車両小隊は、多車編成の調整を通じて、輸送効率と安全性の変革的な改善を約束する。
確率チェックや統計的手法に依存する従来の誤動作検出手法は、偽陽性(FP)率が高い。
Intention In Motion (AIMformer) は、車体プラトンにおけるリアルタイムな誤動作検出に適したトランスフォーマーベースのフレームワークである。
論文 参考訳(メタデータ) (2025-12-17T14:45:33Z) - SemAgent: Semantic-Driven Agentic AI Empowered Trajectory Prediction in Vehicular Networks [26.85167428129155]
本稿では,車載環境における予測性能を高めるために,エージェントAIとのセマンティックコミュニケーションを統合した軌道予測フレームワークを提案する。
車両間通信(V2I)において、道路側ユニット(RSU)の機能抽出エージェントは、歴史的車両軌跡からコンパクトな表現を導出し、続いて意味分析エージェントによって意味論的推論を行う。
RSUは、特徴表現とセマンティックインサイトの両方をセマンティック通信を介して対象車両に送信し、受信したセマンティックスと自身の履歴データを組み合わせることで、将来の軌跡を予測する。
論文 参考訳(メタデータ) (2025-11-30T11:06:58Z) - Edge-Assisted ML-Aided Uncertainty-Aware Vehicle Collision Avoidance at Urban Intersections [12.812518632907771]
都市横断路におけるプリエンプティブ衝突を検出する新しい枠組みを提案する。
5Gネットワークのマルチアクセスエッジコンピューティングプラットフォームを利用する。
論文 参考訳(メタデータ) (2024-04-22T18:45:40Z) - AccidentBlip: Agent of Accident Warning based on MA-former [24.81148840857782]
AccidentBlipは視覚のみのフレームワークで、ビデオの各フレームを処理するために自設計のMotion Accident Transformer(MA-former)を使用している。
AccidentBlipは、DeepAccidentデータセット上の事故検出と予測タスクの両方のパフォーマンスを達成する。
また、V2VおよびV2Xシナリオにおける現在のSOTAメソッドよりも優れており、複雑な現実世界環境を理解するのに優れた能力を示している。
論文 参考訳(メタデータ) (2024-04-18T12:54:25Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Context-Aware Target Classification with Hybrid Gaussian Process
prediction for Cooperative Vehicle Safety systems [2.862606936691229]
自動運転車の堅牢性と安全性を改善するための潜在的な解決策として、V2X通信が提案されている。
協調車両安全(CVS)アプリケーションは、下層データシステムの信頼性に強く依存している。
本稿では,CVSシステムのためのコンテキスト認識ターゲット分類(CA-TC)モジュールとハイブリッド学習に基づく予測モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T22:03:08Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。