論文の概要: V2XP-ASG: Generating Adversarial Scenes for Vehicle-to-Everything
Perception
- arxiv url: http://arxiv.org/abs/2209.13679v1
- Date: Tue, 27 Sep 2022 20:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 17:57:02.534270
- Title: V2XP-ASG: Generating Adversarial Scenes for Vehicle-to-Everything
Perception
- Title(参考訳): V2XP-ASG:車間知覚のための対向シーンの生成
- Authors: Hao Xiang, Runsheng Xu, Xin Xia, Zhaoliang Zheng, Bolei Zhou, Jiaqi Ma
- Abstract要約: V2X知覚システムはすぐに大規模に展開される。
現実のデプロイメントに先立って,困難なトラフィックシナリオの下で,パフォーマンスの評価と改善を行なうには,どうすればよいのでしょう?
本稿では,V2XP-ASGのオープンなシーン生成手法を提案する。
- 参考スコア(独自算出の注目度): 37.41995438002604
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advancements in Vehicle-to-Everything communication technology have
enabled autonomous vehicles to share sensory information to obtain better
perception performance. With the rapid growth of autonomous vehicles and
intelligent infrastructure, the V2X perception systems will soon be deployed at
scale, which raises a safety-critical question: how can we evaluate and improve
its performance under challenging traffic scenarios before the real-world
deployment? Collecting diverse large-scale real-world test scenes seems to be
the most straightforward solution, but it is expensive and time-consuming, and
the collections can only cover limited scenarios. To this end, we propose the
first open adversarial scene generator V2XP-ASG that can produce realistic,
challenging scenes for modern LiDAR-based multi-agent perception system.
V2XP-ASG learns to construct an adversarial collaboration graph and
simultaneously perturb multiple agents' poses in an adversarial and plausible
manner. The experiments demonstrate that V2XP-ASG can effectively identify
challenging scenes for a large range of V2X perception systems. Meanwhile, by
training on the limited number of generated challenging scenes, the accuracy of
V2X perception systems can be further improved by 12.3% on challenging and 4%
on normal scenes.
- Abstract(参考訳): 近年の車両間通信技術の進歩により、自動運転車は感覚情報を共有できるようになり、知覚性能が向上している。
自動運転車とインテリジェントなインフラの急速な成長により、v2xの認識システムはすぐに大規模に展開されることになる。
多様な大規模な実世界のテストシーンの収集は、最も簡単なソリューションに思えるが、高価で時間がかかり、コレクションは限られたシナリオしかカバーできない。
そこで本研究では,現代のLiDARに基づくマルチエージェント認識システムにおいて,現実的で挑戦的なシーンを生成できる,最初のオープン対向シーン生成器 V2XP-ASG を提案する。
V2XP-ASGは、対向的な協調グラフを構築し、同時に複数のエージェントのポーズを対向的で妥当な方法で摂動させる。
実験により、V2XP-ASGは、広範囲のV2X知覚システムにおいて、困難なシーンを効果的に識別できることを示した。
一方、限られた数の挑戦シーンを訓練することで、V2X知覚システムの精度は、挑戦シーンで12.3%、通常のシーンで4%向上することができる。
関連論文リスト
- Dynamic V2X Autonomous Perception from Road-to-Vehicle Vision [14.666587433945363]
本稿では,道路から車への視界からV2X知覚を構築することを提案し,AR2VP(Adaptive Road-to-Vehicle Perception)法を提案する。
AR2VPは、シーン内とシーン間の両方の変化に取り組むように設計されている。
本研究では,3次元物体検出とセグメンテーションの知覚実験を行い,AR2VPは動的環境における特性帯域トレードオフと適応性の両方に優れることを示した。
論文 参考訳(メタデータ) (2023-10-29T19:01:20Z) - Towards Vehicle-to-everything Autonomous Driving: A Survey on
Collaborative Perception [40.90789787242417]
自動車から全車への自動運転(V2X)は、新しい世代のインテリジェント交通システムを開発する上で有望な方向を開く。
V2Xを実現するための重要な要素として協調的知覚(CP)は、個々の知覚の固有の限界を克服することができる。
我々は、V2XシナリオのCPメソッドの包括的なレビューを行い、コミュニティに深い深い深い理解をもたらします。
論文 参考訳(メタデータ) (2023-08-31T13:28:32Z) - V2V4Real: A Real-world Large-scale Dataset for Vehicle-to-Vehicle
Cooperative Perception [49.7212681947463]
車両から車両への協調認識システム(V2V)は、自動運転産業に革命をもたらす大きな可能性を秘めている。
V2V4Realは、V2V知覚のための世界初の大規模実世界のマルチモーダルデータセットである。
我々のデータセットは、20KのLiDARフレーム、40KのRGBフレーム、240Kの注釈付き5クラスの3Dバウンディングボックス、HDMapからなる410kmの走行領域をカバーしている。
論文 参考訳(メタデータ) (2023-03-14T02:49:20Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - CoBEVT: Cooperative Bird's Eye View Semantic Segmentation with Sparse
Transformers [36.838065731893735]
CoBEVTは、BEVマップ予測を協調的に生成できる最初の汎用マルチエージェント認識フレームワークである。
CoBEVTは協調的BEVセマンティックセグメンテーションのための最先端性能を実現する。
論文 参考訳(メタデータ) (2022-07-05T17:59:28Z) - V2X-ViT: Vehicle-to-Everything Cooperative Perception with Vision
Transformer [58.71845618090022]
我々は、道路上のエージェント間で情報を融合するために、V2X-ViTという全体論的アテンションモデルを構築した。
V2X-ViTは異質なマルチエージェント自己アテンションとマルチスケールウィンドウ自己アテンションの交互層から構成される。
我々のアプローチを検証するために、我々は大規模なV2X知覚データセットを作成します。
論文 参考訳(メタデータ) (2022-03-20T20:18:25Z) - V2X-Sim: A Virtual Collaborative Perception Dataset for Autonomous
Driving [26.961213523096948]
V2X(V2X)は、車両と周囲のあらゆる物体の協調を意味する。
V2X-Simデータセットは、自動運転における最初の大規模協調認識データセットである。
論文 参考訳(メタデータ) (2022-02-17T05:14:02Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。