論文の概要: CD-TWINSAFE: A ROS-enabled Digital Twin for Scene Understanding and Safety Emerging V2I Technology
- arxiv url: http://arxiv.org/abs/2601.12373v1
- Date: Sun, 18 Jan 2026 12:07:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.601398
- Title: CD-TWINSAFE: A ROS-enabled Digital Twin for Scene Understanding and Safety Emerging V2I Technology
- Title(参考訳): CD-TWINSAFE: シーン理解と安全性向上のためのROS対応デジタルツイン
- Authors: Amro Khaled, Farah Khaled, Omar Riad, Catherine M. Elias,
- Abstract要約: CD-TWINSAFE(CD-TWINSAFE)は、V2Iをベースとした自動運転車用デジタルツインである。
提案アーキテクチャは,シーン理解のためのステレオカメラを備えた車載運転スタックと,カメラが見ているシーンのUnreal Engine 5レプリカを実行するデジタルツインスタックと,コックピットに安全警報を返送する2つのスタックで構成されている。
- 参考スコア(独自算出の注目度): 0.7874708385247353
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, the CD-TWINSAFE is introduced, a V2I-based digital twin for Autonomous Vehicles. The proposed architecture is composed of two stacks running simultaneously, an on-board driving stack that includes a stereo camera for scene understanding, and a digital twin stack that runs an Unreal Engine 5 replica of the scene viewed by the camera as well as returning safety alerts to the cockpit. The on-board stack is implemented on the vehicle side including 2 main autonomous modules; localization and perception. The position and orientation of the ego vehicle are obtained using on-board sensors. Furthermore, the perception module is responsible for processing 20-fps images from stereo camera and understands the scene through two complementary pipelines. The pipeline are working on object detection and feature extraction including object velocity, yaw and the safety metrics time-to-collision and time-headway. The collected data form the driving stack are sent to the infrastructure side through the ROS-enabled architecture in the form of custom ROS2 messages and sent over UDP links that ride a 4G modem for V2I communication. The environment is monitored via the digital twin through the shared messages which update the information of the spawned ego vehicle and detected objects based on the real-time localization and perception data. Several tests with different driving scenarios to confirm the validity and real-time response of the proposed architecture.
- Abstract(参考訳): 本稿では,V2Iをベースとした自律走行用デジタルツインであるCD-TWINSAFEを紹介する。
提案アーキテクチャは,シーン理解のためのステレオカメラを備えた車載運転スタックと,カメラが見ているシーンのUnreal Engine 5レプリカを実行するデジタルツインスタックと,コックピットに安全警報を返送する2つのスタックで構成されている。
車載スタックは2つの主要自律モジュールを含む車両側で実装されている。
エゴ車両の位置と方向は、オンボードセンサーを用いて得られる。
さらに、認識モジュールはステレオカメラから20fpsの画像を処理し、2つの補完パイプラインを通してシーンを理解する。
パイプラインは、オブジェクトの検出と、オブジェクトのベロシティ、ヨー、安全メトリクスの時間対衝突とタイムヘッドを含む機能抽出に取り組んでいる。
収集されたデータと駆動スタックは、独自のROS2メッセージ形式でROS対応アーキテクチャを介してインフラストラクチャ側へ送信され、V2I通信用の4Gモデムを使用するUDPリンクを介して送信される。
リアルタイムのローカライゼーションと知覚データに基づいて、発生したエゴ車両の情報と検出対象を更新する共有メッセージを介して、デジタルツインを介して環境を監視する。
提案したアーキテクチャの有効性とリアルタイム応答を確認するために,異なる駆動シナリオを用いたいくつかのテストを行った。
関連論文リスト
- SAE-MCVT: A Real-Time and Scalable Multi-Camera Vehicle Tracking Framework Powered by Edge Computing [2.9754058024342473]
我々は,最初のスケーラブルリアルタイムMCVTフレームワークであるSAE-MCVTを提案する。
SAE-MCVTは2K 15 FPSビデオストリーム上でリアルタイムに動作し,IFF1スコアが61.2であることを示す。
これは、都市規模のデプロイメントに適した、初めてのスケーラブルなリアルタイムMCVTフレームワークである。
論文 参考訳(メタデータ) (2025-11-17T20:55:14Z) - 2.5D Object Detection for Intelligent Roadside Infrastructure [37.07785188366053]
インフラ路面カメラのための2.5Dオブジェクト検出フレームワークを提案する。
画像フレーム内の平行図として車両の地上面を検出するための予測手法を用いる。
以上の結果から, 高い検出精度, 強い対面一般化, 各種照明および気象条件に対する堅牢性が確認された。
論文 参考訳(メタデータ) (2025-07-04T13:16:59Z) - Towards Intelligent Transportation with Pedestrians and Vehicles In-the-Loop: A Surveillance Video-Assisted Federated Digital Twin Framework [62.47416496137193]
本稿では,歩行者や車いすによるITSを支援するための監視ビデオ支援型デジタルツイン(SV-FDT)フレームワークを提案する。
i)複数のソースからトラフィック監視ビデオを収集するエンドレイヤ、(ii)セマンティックセグメンテーションに基づく視覚理解、ツインエージェントベースのインタラクションモデリング、およびローカルデジタルツインシステム(LDTS)をローカルで作成するエッジレイヤ、(iii)異なるリージョンにわたるLDTSを統合してグローバルDTモデルをリアルタイムで構築するクラウドレイヤの3層で構成されている。
論文 参考訳(メタデータ) (2025-03-06T07:36:06Z) - V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception [61.58737390490639]
V2X-Radarは、4Dレーダを特徴とする世界初の大規模実世界のマルチモーダルデータセットである。
データセットは20KのLiDARフレーム、40Kのカメライメージ、350Kの注釈付きボックスを含む20Kの4Dレーダデータで構成されている。
様々な研究領域をサポートするために, 協調認識のためのV2X-Radar-C, 路面認識のためのV2X-Radar-I, 単車知覚のためのV2X-Radar-Vを確立した。
論文 参考訳(メタデータ) (2024-11-17T04:59:00Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Dynamic V2X Autonomous Perception from Road-to-Vehicle Vision [14.666587433945363]
本稿では,道路から車への視界からV2X知覚を構築することを提案し,AR2VP(Adaptive Road-to-Vehicle Perception)法を提案する。
AR2VPは、シーン内とシーン間の両方の変化に取り組むように設計されている。
本研究では,3次元物体検出とセグメンテーションの知覚実験を行い,AR2VPは動的環境における特性帯域トレードオフと適応性の両方に優れることを示した。
論文 参考訳(メタデータ) (2023-10-29T19:01:20Z) - A Novel Dual-pooling Attention Module for UAV Vehicle Re-identification [7.9782462757515455]
車両再識別(Re-ID)は、車両の画像から他のカメラが捉えたのと同じ車両を識別する。
UAVの高度が高いため、車両画像の撮影角度は時々垂直に近似し、Re-IDの局所的な特徴は少ない。
本稿では,車両の局所的な重要な情報の抽出と強化を実現する,新しいデュアルプールアテンション(DpA)モジュールを提案する。
論文 参考訳(メタデータ) (2023-06-25T02:46:12Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。