論文の概要: NLOS Dies Twice: Challenges and Solutions of V2X for Cooperative
Perception
- arxiv url: http://arxiv.org/abs/2307.06615v1
- Date: Thu, 13 Jul 2023 08:33:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 15:27:54.047896
- Title: NLOS Dies Twice: Challenges and Solutions of V2X for Cooperative
Perception
- Title(参考訳): nlosが2回死亡 - v2xの協調認知のための挑戦と解決
- Authors: Lantao Li and Chen Sun
- Abstract要約: 本稿では,高速なセンサフュージョンマッチング手順とモビリティハイトハイブリッドリレー決定手順のための抽象的認識行列マッチング手法を提案する。
提案手法の有効性を実証するため,自律走行,センサ融合,V2X通信全般を考慮した新しいシミュレーションフレームワークを設計した。
- 参考スコア(独自算出の注目度): 7.819255257787961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-agent multi-lidar sensor fusion between connected vehicles for
cooperative perception has recently been recognized as the best technique for
minimizing the blind zone of individual vehicular perception systems and
further enhancing the overall safety of autonomous driving systems. This
technique relies heavily on the reliability and availability of
vehicle-to-everything (V2X) communication. In practical sensor fusion
application scenarios, the non-line-of-sight (NLOS) issue causes blind zones
for not only the perception system but also V2X direct communication. To
counteract underlying communication issues, we introduce an abstract perception
matrix matching method for quick sensor fusion matching procedures and
mobility-height hybrid relay determination procedures, proactively improving
the efficiency and performance of V2X communication to serve the upper layer
application fusion requirements. To demonstrate the effectiveness of our
solution, we design a new simulation framework to consider autonomous driving,
sensor fusion and V2X communication in general, paving the way for end-to-end
performance evaluation and further solution derivation.
- Abstract(参考訳): 協調認識のための複数エージェントマルチライダーセンサ融合は,近年,個々の車両知覚システムのブラインドゾーンを最小化し,自動運転システムの全体的な安全性をさらに高めるための最善の手法として認識されている。
この技術は、V2X通信の信頼性と可用性に大きく依存している。
現実的なセンサフュージョン応用シナリオでは、非線形(NLOS)問題は知覚システムだけでなくV2X直接通信にも盲点を引き起こす。
本稿では,V2X通信の効率と性能を積極的に改善し,上位層でのアプリケーション融合要求を満たすために,センサフュージョンマッチング手順とモビリティハイトハイブリッドリレー決定手順の抽象的認識行列マッチング手法を提案する。
提案手法の有効性を実証するため,自律走行,センサ融合,V2X通信全般を考慮した新しいシミュレーションフレームワークを設計し,エンド・ツー・エンドの性能評価と解の導出を行う。
関連論文リスト
- Semantic Communication for Cooperative Perception using HARQ [51.148203799109304]
我々は重要セマンティック情報を抽出するために重要地図を活用し、協調的な知覚セマンティックコミュニケーションフレームワークを導入する。
周波数分割多重化(OFDM)とチャネル推定と等化戦略を併用して,時間変化によるマルチパスフェーディングによる課題に対処する。
我々は,ハイブリッド自動繰り返し要求(HARQ)の精神において,我々の意味コミュニケーションフレームワークと統合された新しい意味エラー検出手法を提案する。
論文 参考訳(メタデータ) (2024-08-29T08:53:26Z) - Hybrid-Generative Diffusion Models for Attack-Oriented Twin Migration in Vehicular Metaverses [58.264499654343226]
Vehicle Twins (VTs) は、Vehicular Metaverse Users (VMUs) 向けに没入型仮想サービスを提供するデジタルツインである。
車両の高モビリティ、エッジサーバの不均一なデプロイ、潜在的なセキュリティ脅威は、効率的で信頼性の高いVTマイグレーションを実現する上での課題である。
車両メタバースにおけるセキュアで信頼性の高いVTマイグレーションフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-05T11:11:33Z) - Unified End-to-End V2X Cooperative Autonomous Driving [21.631099800753795]
UniE2EV2Xは、V2Xに統合されたエンドツーエンドの自動運転システムで、主要な駆動モジュールを統合ネットワーク内で統合する。
このフレームワークは変形可能な注意ベースのデータ融合戦略を採用し、車とインフラの協調を効果的に促進する。
We implement the UniE2EV2X framework on the challenge DeepAccident, a simulation dataset designed for V2X collaborative driving。
論文 参考訳(メタデータ) (2024-05-07T03:01:40Z) - Enhancing Track Management Systems with Vehicle-To-Vehicle Enabled Sensor Fusion [0.0]
本稿では,新しいV2V対応トラック管理システムを提案する。
中心となるイノベーションは、V2V通信を通じて検証された融合検出からなる独立した優先度トラックリストの作成にある。
本システムでは,V2X信号のファルシフィケーションが,認識センサからの検知を用いて,初期車両識別プロセスを通じて発生することの意義を考察する。
論文 参考訳(メタデータ) (2024-04-26T20:54:44Z) - Enhanced Cooperative Perception for Autonomous Vehicles Using Imperfect Communication [0.24466725954625887]
本稿では,制約通信下での協調知覚(CP)の最適化を実現するための新しい手法を提案する。
私たちのアプローチの核心は、視覚範囲を拡大するために、利用可能なフロント車両のリストから最高のヘルパーを募集することだ。
本研究は,協調知覚の全体的な性能向上における2段階最適化プロセスの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-04-10T15:37:15Z) - V2X-Lead: LiDAR-based End-to-End Autonomous Driving with
Vehicle-to-Everything Communication Integration [4.166623313248682]
本稿では,V2X(Vine-to-Everything)通信を統合したLiDARを用いたエンドツーエンド自動運転手法を提案する。
提案手法は,搭載したLiDARセンサとV2X通信データを融合させることにより,不完全な部分的観測を処理することを目的としている。
論文 参考訳(メタデータ) (2023-09-26T20:26:03Z) - Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving [49.42873226593071]
本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
論文 参考訳(メタデータ) (2023-04-24T04:59:13Z) - CoPEM: Cooperative Perception Error Models for Autonomous Driving [20.60246432605745]
我々は、隠蔽対象の誤検知エラーとして現れる自律走行車(AV)の(車載)知覚に焦点を当てる。
本稿では,仮想テスト環境におけるV2Xソリューションの効果的な統合を実現するために,協調知覚誤りモデル(coPEM)の概念を導入する。
論文 参考訳(メタデータ) (2022-11-21T04:40:27Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。