論文の概要: Vehicle-to-Everything Cooperative Perception for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2310.03525v5
- Date: Tue, 02 Sep 2025 07:47:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 17:24:08.993281
- Title: Vehicle-to-Everything Cooperative Perception for Autonomous Driving
- Title(参考訳): 自動運転車の車間協調認識
- Authors: Tao Huang, Jianan Liu, Xi Zhou, Dinh C. Nguyen, Mostafa Rahimi Azghadi, Yuxuan Xia, Qing-Long Han, Sumei Sun,
- Abstract要約: 車間協調知覚は、知覚範囲を拡大し、検出精度を高める上で重要な役割を担っている。
エージェントの選択,データアライメント,特徴融合など,信頼性の高い認識共有を可能にするための重要な技術について詳細に検討する。
本論文は、車から全車への協調的認識の今後の進歩を支援するための、有望な研究方針を概説することで締めくくっている。
- 参考スコア(独自算出の注目度): 46.292402824957975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving fully autonomous driving with enhanced safety and efficiency relies on vehicle-to-everything cooperative perception, which enables vehicles to share perception data, thereby enhancing situational awareness and overcoming the limitations of the sensing ability of individual vehicles. Vehicle-to-everything cooperative perception plays a crucial role in extending the perception range, increasing detection accuracy, and supporting more robust decision-making and control in complex environments. This paper provides a comprehensive survey of recent developments in vehicle-to-everything cooperative perception, introducing mathematical models that characterize the perception process under different collaboration strategies. Key techniques for enabling reliable perception sharing, such as agent selection, data alignment, and feature fusion, are examined in detail. In addition, major challenges are discussed, including differences in agents and models, uncertainty in perception outputs, and the impact of communication constraints such as transmission delay and data loss. The paper concludes by outlining promising research directions, including privacy-preserving artificial intelligence methods, collaborative intelligence, and integrated sensing frameworks to support future advancements in vehicle-to-everything cooperative perception.
- Abstract(参考訳): 安全性と効率性を高めた完全自律運転を実現するには、車両間の協調的な認識に依存しており、これにより車両は認識データを共有でき、状況認識を高め、個々の車両の知覚能力の限界を克服することができる。
車両間協調認識は、知覚範囲の拡大、検出精度の向上、複雑な環境におけるより堅牢な意思決定と制御のサポートにおいて重要な役割を担っている。
本稿では,様々な協調戦略の下での知覚過程を特徴づける数学的モデルを導入し,車両間協調認識の最近の展開を包括的に調査する。
エージェントの選択,データアライメント,特徴融合など,信頼性の高い認識共有を可能にするための重要な技術について詳細に検討する。
さらに,エージェントとモデルの違い,知覚出力の不確実性,送信遅延やデータ損失などの通信制約の影響など,大きな課題が議論されている。
この論文は、プライバシー保護の人工知能手法、協調的な知性、そして将来の車両間協調認識の進歩を支援するための統合されたセンシングフレームワークなど、有望な研究方向性を概説することで締めくくっている。
関連論文リスト
- Research Challenges and Progress in the End-to-End V2X Cooperative Autonomous Driving Competition [57.698383942708]
車両間通信(V2X)は、知覚範囲を拡大し運転安全性を高めるための重要な手段となっている。
我々は,協調的時間知覚と協調的エンドツーエンド計画という2つのトラックを特徴とする,V2X協力によるエンドツーエンド自律運転を組織した。
本稿では,バンド幅認識融合,堅牢なマルチエージェント計画,異種センサ統合といった重要な研究課題を取り上げ,課題の設計と成果について述べる。
論文 参考訳(メタデータ) (2025-07-29T09:06:40Z) - CP-Guard+: A New Paradigm for Malicious Agent Detection and Defense in Collaborative Perception [53.088988929450494]
協調知覚(CP)は、安全で自律的な運転のための有望な方法である。
本稿では,悪意のあるエージェントを機能レベルで効果的に識別する,悪意のあるエージェント検出のための新しいパラダイムを提案する。
また,CP-Guard+と呼ばれる堅牢な防御手法を開発し,良性の表現と悪質な特徴とのマージンを高める。
論文 参考訳(メタデータ) (2025-02-07T12:58:45Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - V2X-VLM: End-to-End V2X Cooperative Autonomous Driving Through Large Vision-Language Models [13.716889927164383]
自動車間協力(V2X)は、古典的な自動運転の認識限界を克服するための有望なパラダイムとして浮上している。
本稿では、視覚言語モデル(VLM)に基づく新しいエンドツーエンド(E2E)協調自動運転フレームワークであるV2X-VLMを紹介する。
V2X-VLMは、車両やインフラからの多視点カメラビューとテキストベースのシーン記述を統合し、運転環境のより包括的な理解を可能にする。
論文 参考訳(メタデータ) (2024-08-17T16:42:13Z) - Unified End-to-End V2X Cooperative Autonomous Driving [21.631099800753795]
UniE2EV2Xは、V2Xに統合されたエンドツーエンドの自動運転システムで、主要な駆動モジュールを統合ネットワーク内で統合する。
このフレームワークは変形可能な注意ベースのデータ融合戦略を採用し、車とインフラの協調を効果的に促進する。
We implement the UniE2EV2X framework on the challenge DeepAccident, a simulation dataset designed for V2X collaborative driving。
論文 参考訳(メタデータ) (2024-05-07T03:01:40Z) - Enhanced Cooperative Perception for Autonomous Vehicles Using Imperfect Communication [0.24466725954625887]
本稿では,制約通信下での協調知覚(CP)の最適化を実現するための新しい手法を提案する。
私たちのアプローチの核心は、視覚範囲を拡大するために、利用可能なフロント車両のリストから最高のヘルパーを募集することだ。
本研究は,協調知覚の全体的な性能向上における2段階最適化プロセスの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-04-10T15:37:15Z) - V2X-Lead: LiDAR-based End-to-End Autonomous Driving with
Vehicle-to-Everything Communication Integration [4.166623313248682]
本稿では,V2X(Vine-to-Everything)通信を統合したLiDARを用いたエンドツーエンド自動運転手法を提案する。
提案手法は,搭載したLiDARセンサとV2X通信データを融合させることにより,不完全な部分的観測を処理することを目的としている。
論文 参考訳(メタデータ) (2023-09-26T20:26:03Z) - Towards Vehicle-to-everything Autonomous Driving: A Survey on
Collaborative Perception [40.90789787242417]
自動車から全車への自動運転(V2X)は、新しい世代のインテリジェント交通システムを開発する上で有望な方向を開く。
V2Xを実現するための重要な要素として協調的知覚(CP)は、個々の知覚の固有の限界を克服することができる。
我々は、V2XシナリオのCPメソッドの包括的なレビューを行い、コミュニティに深い深い深い理解をもたらします。
論文 参考訳(メタデータ) (2023-08-31T13:28:32Z) - Convergence of Communications, Control, and Machine Learning for Secure
and Autonomous Vehicle Navigation [78.60496411542549]
接続された自動運転車(CAV)は、交通事故におけるヒューマンエラーを低減し、道路効率を向上し、様々なタスクを実行する。これらのメリットを享受するためには、CAVが目標とする目的地へ自律的にナビゲートする必要がある。
本稿では,通信理論,制御理論,機械学習の収束を利用して,効果的なCAVナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T21:38:36Z) - Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving [49.42873226593071]
本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
論文 参考訳(メタデータ) (2023-04-24T04:59:13Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - A Multi-Agent Reinforcement Learning Approach For Safe and Efficient
Behavior Planning Of Connected Autonomous Vehicles [21.132777568170702]
我々は、コネクテッド・自動運転車のための情報共有型強化学習フレームワークを設計する。
提案手法は, 平均速度と快適性の観点から, CAV システムの効率性を向上させることができることを示す。
我々は,共用視覚が早期に障害物を観測し,交通渋滞を避けるために行動を起こすのに役立つことを示すために,障害物回避シナリオを構築した。
論文 参考訳(メタデータ) (2020-03-09T19:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。