論文の概要: Learning for Vehicle-to-Vehicle Cooperative Perception under Lossy
Communication
- arxiv url: http://arxiv.org/abs/2212.08273v1
- Date: Fri, 16 Dec 2022 04:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:08:27.881870
- Title: Learning for Vehicle-to-Vehicle Cooperative Perception under Lossy
Communication
- Title(参考訳): 損失コミュニケーションにおける車車間協調認知の学習
- Authors: Jinlong Li, Runsheng Xu, Xinyu Liu, Jin Ma, Zicheng Chi, Jiaqi Ma,
Hongkai Yu
- Abstract要約: 本稿では,V2V協調知覚におけるコミュニケーションの損失による副作用(例えば,検出性能低下)について検討する。
損失通信の副作用を軽減するため,新しい中間LC対応機能融合法を提案する。
提案手法は,V2V通信における協調点雲を用いた3次元物体検出に極めて有効である。
- 参考スコア(独自算出の注目度): 30.100647849646467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning has been widely used in the perception (e.g., 3D object
detection) of intelligent vehicle driving. Due to the beneficial
Vehicle-to-Vehicle (V2V) communication, the deep learning based features from
other agents can be shared to the ego vehicle so as to improve the perception
of the ego vehicle. It is named as Cooperative Perception in the V2V research,
whose algorithms have been dramatically advanced recently. However, all the
existing cooperative perception algorithms assume the ideal V2V communication
without considering the possible lossy shared features because of the Lossy
Communication (LC) which is common in the complex real-world driving scenarios.
In this paper, we first study the side effect (e.g., detection performance
drop) by the lossy communication in the V2V Cooperative Perception, and then we
propose a novel intermediate LC-aware feature fusion method to relieve the side
effect of lossy communication by a LC-aware Repair Network (LCRN) and enhance
the interaction between the ego vehicle and other vehicles by a specially
designed V2V Attention Module (V2VAM) including intra-vehicle attention of ego
vehicle and uncertainty-aware inter-vehicle attention. The extensive experiment
on the public cooperative perception dataset OPV2V (based on digital-twin CARLA
simulator) demonstrates that the proposed method is quite effective for the
cooperative point cloud based 3D object detection under lossy V2V
communication.
- Abstract(参考訳): ディープラーニングは、インテリジェントな自動車運転の知覚(たとえば3Dオブジェクト検出)に広く使われている。
有益車両間通信(v2v)により、他のエージェントからのディープラーニングに基づく特徴をego車両と共有して、ego車両の認識を改善することができる。
V2V研究における協調知覚(Cooperative Perception)と名付けられ、アルゴリズムは近年劇的に進歩している。
しかしながら、既存の協調認識アルゴリズムは、複雑な現実の運転シナリオに共通するLossy Communication (LC)のために、損失の多い共有特徴を考慮せずに理想的なV2V通信を前提としている。
In this paper, we first study the side effect (e.g., detection performance drop) by the lossy communication in the V2V Cooperative Perception, and then we propose a novel intermediate LC-aware feature fusion method to relieve the side effect of lossy communication by a LC-aware Repair Network (LCRN) and enhance the interaction between the ego vehicle and other vehicles by a specially designed V2V Attention Module (V2VAM) including intra-vehicle attention of ego vehicle and uncertainty-aware inter-vehicle attention.
デジタル双対CARLAシミュレータに基づく公共協調認識データセットOPV2Vの広範な実験により, 提案手法はV2V通信における協調点雲に基づく3次元物体検出に極めて有効であることが示された。
関連論文リスト
- EAIA: An Efficient and Anonymous Identity Authentication Scheme in 5G-V2V [14.315350766867814]
本稿では,ロードサイドユニット(RSU)をサポートしていないシナリオに適した,効率的な匿名V2V認証プロトコルを提案する。
提案されたプロトコルは、Scytherツールを使用して公式に評価され、主要な一般的な悪意のある攻撃に耐える能力を示している。
論文 参考訳(メタデータ) (2024-06-07T07:26:09Z) - Enhanced Cooperative Perception for Autonomous Vehicles Using Imperfect Communication [0.24466725954625887]
本稿では,制約通信下での協調知覚(CP)の最適化を実現するための新しい手法を提案する。
私たちのアプローチの核心は、視覚範囲を拡大するために、利用可能なフロント車両のリストから最高のヘルパーを募集することだ。
本研究は,協調知覚の全体的な性能向上における2段階最適化プロセスの有効性を実証するものである。
論文 参考訳(メタデータ) (2024-04-10T15:37:15Z) - Interruption-Aware Cooperative Perception for V2X Communication-Aided
Autonomous Driving [49.42873226593071]
本稿では,V2X通信支援自律運転のためのV2X通信入出力対応協調知覚(V2X-INCOP)を提案する。
我々は、過去の協力情報を用いて、割り込みによる行方不明情報を復元し、割り込み問題の影響を軽減する。
3つの公的な協調認識データセットの実験から,コミュニケーション中断が協調知覚に与える影響を緩和するために提案手法が有効であることが示された。
論文 参考訳(メタデータ) (2023-04-24T04:59:13Z) - HM-ViT: Hetero-modal Vehicle-to-Vehicle Cooperative perception with
vision transformer [4.957079586254435]
HM-ViTは、最初の統合マルチエージェントヘテロモーダル協調認識フレームワークである。
3Dオブジェクトを協調的に予測し、様々な数と種類のエージェントと高ダイナミックな車車間コラボレーション(V2V)を行う。
論文 参考訳(メタデータ) (2023-04-20T20:09:59Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - Cooperative Perception with Deep Reinforcement Learning for Connected
Vehicles [7.7003495898919265]
本研究では, 周辺物体の検出精度を高めるために, 深層強化学習を用いた協調認識方式を提案する。
本手法は、車両通信網におけるネットワーク負荷を軽減し、通信信頼性を高める。
論文 参考訳(メタデータ) (2020-04-23T01:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。