論文の概要: VALISENS: A Validated Innovative Multi-Sensor System for Cooperative Automated Driving
- arxiv url: http://arxiv.org/abs/2505.06980v1
- Date: Sun, 11 May 2025 13:41:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.142405
- Title: VALISENS: A Validated Innovative Multi-Sensor System for Cooperative Automated Driving
- Title(参考訳): VALISENS: 協調運転のための実証的イノベーティブ・マルチセンサーシステム
- Authors: Lei Wan, Prabesh Gupta, Andreas Eich, Marcel Kettelgerdes, Hannan Ejaz Keen, Michael Klöppel-Gersdorf, Alexey Vinel,
- Abstract要約: 本稿では,複数のエージェントに分散した革新的なマルチセンサシステムであるVALISENSを提案する。
オンボードと道路沿いのLiDAR、レーダー、サーマルカメラ、RGBカメラを統合し、状況認識を高め、協調運転を支援する。
提案システムは,実環境における協調的認識の可能性を示す。
- 参考スコア(独自算出の注目度): 0.9527960631238174
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Perception is a core capability of automated vehicles and has been significantly advanced through modern sensor technologies and artificial intelligence. However, perception systems still face challenges in complex real-world scenarios. To improve robustness against various external factors, multi-sensor fusion techniques are essential, combining the strengths of different sensor modalities. With recent developments in Vehicle-to-Everything (V2X communication, sensor fusion can now extend beyond a single vehicle to a cooperative multi-agent system involving Connected Automated Vehicle (CAV) and intelligent infrastructure. This paper presents VALISENS, an innovative multi-sensor system distributed across multiple agents. It integrates onboard and roadside LiDARs, radars, thermal cameras, and RGB cameras to enhance situational awareness and support cooperative automated driving. The thermal camera adds critical redundancy for perceiving Vulnerable Road User (VRU), while fusion with roadside sensors mitigates visual occlusions and extends the perception range beyond the limits of individual vehicles. We introduce the corresponding perception module built on this sensor system, which includes object detection, tracking, motion forecasting, and high-level data fusion. The proposed system demonstrates the potential of cooperative perception in real-world test environments and lays the groundwork for future Cooperative Intelligent Transport Systems (C-ITS) applications.
- Abstract(参考訳): 知覚は自動車両の中核的な能力であり、現代のセンサー技術や人工知能によって大幅に進歩してきた。
しかし、知覚システムは複雑な現実世界のシナリオにおいて依然として課題に直面している。
各種外部要因に対するロバスト性向上のためには, センサの強度を組み合わさってマルチセンサ融合技術が不可欠である。
車両間通信(V2X通信)の最近の進歩により、センサフュージョンは単一の車両を超えて、コネクテッド・オートマチック・ビークル(CAV)とインテリジェントインフラストラクチャを含む協調型マルチエージェントシステムへと拡張できるようになった。
本稿では,複数のエージェントに分散した革新的なマルチセンサシステムであるVALISENSを提案する。
オンボードと道路沿いのLiDAR、レーダー、サーマルカメラ、RGBカメラを統合し、状況認識を高め、協調運転を支援する。
サーマルカメラは、Vulnerable Road User (VRU)を知覚するための重要な冗長性を付加し、一方、路面センサーとの融合は視覚的閉塞を軽減し、個々の車両の限界を超えて知覚範囲を広げる。
本稿では,物体検出,追跡,動き予測,高レベルのデータ融合を含む,センサシステム上に構築された対応する知覚モジュールについて紹介する。
提案システムは,実世界のテスト環境における協調認識の可能性を示し,今後のC-ITS(Cooperative Intelligent Transport Systems)アプリケーションの基礎となる。
関連論文リスト
- A Survey of World Models for Autonomous Driving [63.33363128964687]
自律運転の最近の進歩は、堅牢な世界モデリングの進歩によって推進されている。
本稿では、自律運転の世界モデルにおける最近の進歩を体系的にレビューする。
論文 参考訳(メタデータ) (2025-01-20T04:00:02Z) - Enhancing Track Management Systems with Vehicle-To-Vehicle Enabled Sensor Fusion [0.0]
本稿では,新しいV2V対応トラック管理システムを提案する。
中心となるイノベーションは、V2V通信を通じて検証された融合検出からなる独立した優先度トラックリストの作成にある。
本システムでは,V2X信号のファルシフィケーションが,認識センサからの検知を用いて,初期車両識別プロセスを通じて発生することの意義を考察する。
論文 参考訳(メタデータ) (2024-04-26T20:54:44Z) - Smart Infrastructure: A Research Junction [5.172393727004225]
本稿では,ドイツ・アシャッフェンブルクの公的な市内交差点に位置する視覚センサ技術を備えたインテリジェントな研究基盤について紹介する。
マルチビューカメラシステムは、交通状況を監視し、道路利用者の行動を知覚する。
このシステムは、データ生成の研究、新しいHADセンサーシステム、アルゴリズム、人工知能(AI)トレーニング戦略の評価に使用される。
論文 参考訳(メタデータ) (2023-07-12T14:04:12Z) - RMMDet: Road-Side Multitype and Multigroup Sensor Detection System for
Autonomous Driving [3.8917150802484994]
RMMDetは、自動運転のための道路側マルチタイプおよびマルチグループセンサー検出システムである。
ROSベースの仮想環境を用いて実環境をシミュレートする。
局所的なデータセットと実際のサンドテーブルフィールドを作成し、様々な実験を行う。
論文 参考訳(メタデータ) (2023-03-09T12:13:39Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - Towards robust sensing for Autonomous Vehicles: An adversarial
perspective [82.83630604517249]
結果として得られる決定が摂動に対して堅牢であることは、最も重要なことです。
敵対的摂動は、意図的に環境や感覚測定の修正を施したものである。
より安全なシステムの構築とデプロイには,センサーシステムの脆弱性を慎重に評価する必要がある。
論文 参考訳(メタデータ) (2020-07-14T05:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。