論文の概要: Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving
- arxiv url: http://arxiv.org/abs/2304.11821v2
- Date: Wed, 28 Feb 2024 05:01:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 19:25:02.559292
- Title: Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving
- Title(参考訳): V2X通信支援自律運転における中断型協調認識
- Authors: Shunli Ren, Zixing Lei, Zi Wang, Mehrdad Dianati, Yafei Wang, Siheng
Chen, Wenjun Zhang
- Abstract要約: 本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
- 参考スコア(独自算出の注目度): 49.42873226593071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative perception can significantly improve the perception performance
of autonomous vehicles beyond the limited perception ability of individual
vehicles by exchanging information with neighbor agents through V2X
communication. However, most existing work assume ideal communication among
agents, ignoring the significant and common \textit{interruption issues} caused
by imperfect V2X communication, where cooperation agents can not receive
cooperative messages successfully and thus fail to achieve cooperative
perception, leading to safety risks. To fully reap the benefits of cooperative
perception in practice, we propose V2X communication INterruption-aware
COoperative Perception (V2X-INCOP), a cooperative perception system robust to
communication interruption for V2X communication-aided autonomous driving,
which leverages historical cooperation information to recover missing
information due to the interruptions and alleviate the impact of the
interruption issue. To achieve comprehensive recovery, we design a
communication-adaptive multi-scale spatial-temporal prediction model to extract
multi-scale spatial-temporal features based on V2X communication conditions and
capture the most significant information for the prediction of the missing
information. To further improve recovery performance, we adopt a knowledge
distillation framework to give explicit and direct supervision to the
prediction model and a curriculum learning strategy to stabilize the training
of the model. Experiments on three public cooperative perception datasets
demonstrate that the proposed method is effective in alleviating the impacts of
communication interruption on cooperative perception.
- Abstract(参考訳): 協調的な知覚は、v2x通信を介して近隣のエージェントと情報を交換することで、個々の車両の認識能力の制限を超える自動運転車の知覚性能を著しく向上させることができる。
しかし、既存のほとんどの仕事はエージェント間の理想的なコミュニケーションを前提としており、不完全なv2x通信によって引き起こされる重要かつ一般的な \textit{interruption issues} を無視している。
そこで本研究では,v2x通信支援自律運転における通信中断に頑健な協調認識システムであるv2x通信中断回避協調認識(v2x-incop)を提案する。
包括的回復を実現するため,V2X通信条件に基づいて複数の空間的特徴を抽出し,欠落情報の予測に最も重要な情報を取得する通信適応型マルチスケール時空間予測モデルを設計した。
さらに回復性能を向上させるために,予測モデルに明示的かつ直接的な監督を与えるための知識蒸留フレームワークと,モデルのトレーニングを安定化するカリキュラム学習戦略を採用する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
関連論文リスト
- Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - Semantic Communication for Cooperative Perception using HARQ [51.148203799109304]
我々は重要セマンティック情報を抽出するために重要地図を活用し、協調的な知覚セマンティックコミュニケーションフレームワークを導入する。
周波数分割多重化(OFDM)とチャネル推定と等化戦略を併用して,時間変化によるマルチパスフェーディングによる課題に対処する。
我々は,ハイブリッド自動繰り返し要求(HARQ)の精神において,我々の意味コミュニケーションフレームワークと統合された新しい意味エラー検出手法を提案する。
論文 参考訳(メタデータ) (2024-08-29T08:53:26Z) - CMP: Cooperative Motion Prediction with Multi-Agent Communication [21.60646440715162]
本稿では,協調動作予測の実現可能性と有効性について検討する。
提案手法であるCMPは,LiDAR信号をモデル入力とし,追跡と予測能力を向上させる。
特に、CMPは平均予測誤差を16.4%削減し、検出精度は低下している。
論文 参考訳(メタデータ) (2024-03-26T17:53:27Z) - SmartCooper: Vehicular Collaborative Perception with Adaptive Fusion and
Judger Mechanism [23.824400533836535]
通信最適化と判断機構を組み込んだ適応型協調認識フレームワークであるSmartCooperを紹介する。
以上の結果から,非ジュッジャー方式に比べて通信コストが23.10%大幅に削減された。
論文 参考訳(メタデータ) (2024-02-01T04:15:39Z) - V2X Cooperative Perception for Autonomous Driving: Recent Advances and Challenges [32.11627955649814]
車両間協調認識(V2X)により、車両は認識データを共有でき、状況認識を高め、個々の車両の知覚能力の限界を克服することができる。
V2X CPは、認識範囲の拡大、精度の向上、複雑な環境下での自動運転車の意思決定と制御能力の向上に不可欠である。
本稿では、V2X CPの最近の進歩を包括的に調査し、様々なコラボレーション戦略にまたがるCPプロセスの数学的モデルを紹介する。
論文 参考訳(メタデータ) (2023-10-05T13:19:48Z) - Learning for Vehicle-to-Vehicle Cooperative Perception under Lossy
Communication [30.100647849646467]
本稿では,V2V協調知覚におけるコミュニケーションの損失による副作用(例えば,検出性能低下)について検討する。
損失通信の副作用を軽減するため,新しい中間LC対応機能融合法を提案する。
提案手法は,V2V通信における協調点雲を用いた3次元物体検出に極めて有効である。
論文 参考訳(メタデータ) (2022-12-16T04:18:47Z) - Over-communicate no more: Situated RL agents learn concise communication
protocols [78.28898217947467]
互いに効果的に効率的にコミュニケーションできる人工エージェントをいかに設計するかは、不明である。
強化学習(RL)を用いたコミュニケーションの出現に関する研究
エージェントがコミュニケーションを行うための環境行為を強制しなければならない多段階タスクにおける位置的コミュニケーションについて検討する。
テストされたすべてのプレッシャーは過剰なコミュニケーションを阻害する可能性があるが、位置通信は最も効果的であり、努力のコストとは異なり、発生に悪影響を及ぼさない。
論文 参考訳(メタデータ) (2022-11-02T21:08:14Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。