論文の概要: CoPEM: Cooperative Perception Error Models for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2211.11175v1
- Date: Mon, 21 Nov 2022 04:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 22:10:58.387729
- Title: CoPEM: Cooperative Perception Error Models for Autonomous Driving
- Title(参考訳): CoPEM:自動運転のための協調知覚誤差モデル
- Authors: Andrea Piazzoni, Jim Cherian, Roshan Vijai, Lap-Pui Chau, Justin
Dauwels
- Abstract要約: 我々は、隠蔽対象の誤検知エラーとして現れる自律走行車(AV)の(車載)知覚に焦点を当てる。
本稿では,仮想テスト環境におけるV2Xソリューションの効果的な統合を実現するために,協調知覚誤りモデル(coPEM)の概念を導入する。
- 参考スコア(独自算出の注目度): 20.60246432605745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce the notion of Cooperative Perception Error Models
(coPEMs) towards achieving an effective and efficient integration of V2X
solutions within a virtual test environment. We focus our analysis on the
occlusion problem in the (onboard) perception of Autonomous Vehicles (AV),
which can manifest as misdetection errors on the occluded objects. Cooperative
perception (CP) solutions based on Vehicle-to-Everything (V2X) communications
aim to avoid such issues by cooperatively leveraging additional points of view
for the world around the AV. This approach usually requires many sensors,
mainly cameras and LiDARs, to be deployed simultaneously in the environment
either as part of the road infrastructure or on other traffic vehicles.
However, implementing a large number of sensor models in a virtual simulation
pipeline is often prohibitively computationally expensive. Therefore, in this
paper, we rely on extending Perception Error Models (PEMs) to efficiently
implement such cooperative perception solutions along with the errors and
uncertainties associated with them. We demonstrate the approach by comparing
the safety achievable by an AV challenged with a traffic scenario where
occlusion is the primary cause of a potential collision.
- Abstract(参考訳): 本稿では,仮想テスト環境におけるV2Xソリューションの効果的かつ効率的な統合を実現するための協調知覚誤りモデル(coPEM)の概念を紹介する。
我々は,(車載)自律車両知覚(av)におけるオクルージョン問題に焦点をあて,オクルード対象物に対する誤検出誤差を顕示する。
車両間コミュニケーション(V2X)に基づく協調認識(CP)ソリューションは,AVを取り巻く世界の新たな視点を活用することで,このような問題を回避することを目的としている。
このアプローチでは、主にカメラとLiDARを含む多くのセンサーを、道路インフラストラクチャーまたは他の交通車両の一部として環境に同時に配置する必要がある。
しかし、仮想シミュレーションパイプラインに多数のセンサーモデルを実装することは、しばしば計算コストを禁ずる。
そこで本稿では,知覚誤りモデル(PEM)を拡張して,そのような協調認識ソリューションを効率よく実装し,それらに関連する誤りや不確実性に対処する。
AVが達成可能な安全性を、衝突の主原因となる交通事故シナリオと比較することにより、そのアプローチを実証する。
関連論文リスト
- SiCP: Simultaneous Individual and Cooperative Perception for 3D Object
Detection in Connected and Automated Vehicles [15.636723407479444]
連結車両と自動車両の協調認識は、伝統的に2台以上の車両の特徴マップの融合によって達成される。
この欠点は、車両資源が2つの知覚モデルを同時に使用するには不十分なため、協調的な知覚の採用を妨げる。
我々は、最先端のスタンドアロン認識バックボーンを幅広くサポートする汎用フレームワークである、同時個人協調知覚(SiCP)を提示する。
論文 参考訳(メタデータ) (2023-12-08T04:12:26Z) - Towards Full-scene Domain Generalization in Multi-agent Collaborative
Bird's Eye View Segmentation for Connected and Autonomous Driving [54.60458503590669]
協調認識の学習段階と推論段階の両方に適用可能な統合ドメイン一般化フレームワークを提案する。
我々は、AmpAug(Amplitude Augmentation)法を用いて、低周波画像の変動を増大させ、学習能力を拡大する。
推論フェーズでは、システム内ドメインアライメント機構を導入し、ドメインの不一致を減らし、潜在的に排除する。
論文 参考訳(メタデータ) (2023-11-28T12:52:49Z) - V2X-Lead: LiDAR-based End-to-End Autonomous Driving with
Vehicle-to-Everything Communication Integration [4.166623313248682]
本稿では,V2X(Vine-to-Everything)通信を統合したLiDARを用いたエンドツーエンド自動運転手法を提案する。
提案手法は,搭載したLiDARセンサとV2X通信データを融合させることにより,不完全な部分的観測を処理することを目的としている。
論文 参考訳(メタデータ) (2023-09-26T20:26:03Z) - NLOS Dies Twice: Challenges and Solutions of V2X for Cooperative
Perception [7.819255257787961]
本稿では,高速なセンサフュージョンマッチング手順とモビリティハイトハイブリッドリレー決定手順のための抽象的認識行列マッチング手法を提案する。
提案手法の有効性を実証するため,自律走行,センサ融合,V2X通信全般を考慮した新しいシミュレーションフレームワークを設計した。
論文 参考訳(メタデータ) (2023-07-13T08:33:02Z) - Convergence of Communications, Control, and Machine Learning for Secure
and Autonomous Vehicle Navigation [78.60496411542549]
接続された自動運転車(CAV)は、交通事故におけるヒューマンエラーを低減し、道路効率を向上し、様々なタスクを実行する。これらのメリットを享受するためには、CAVが目標とする目的地へ自律的にナビゲートする必要がある。
本稿では,通信理論,制御理論,機械学習の収束を利用して,効果的なCAVナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T21:38:36Z) - Practical Collaborative Perception: A Framework for Asynchronous and
Multi-Agent 3D Object Detection [9.967263440745432]
咬合は、LiDARベースのオブジェクト検出方法において大きな課題である。
最先端のV2X手法は、中間協調手法を用いて性能帯域幅のトレードオフを解消する。
我々は,従来の方法よりも帯域幅と性能のトレードオフを向上する,シンプルで効果的な協調手法を考案した。
論文 参考訳(メタデータ) (2023-07-04T03:49:42Z) - PEM: Perception Error Model for Virtual Testing of Autonomous Vehicles [20.300846259643137]
この記事では、知覚エラーモデル(PEM)を定義します。
PEMは仮想シミュレーションコンポーネントであり、知覚誤差がAV安全性に与える影響を分析することができる。
我々は、カメラ、LiDAR、カメラ-LiDARのセットアップを評価することにより、PEMベースの仮想テストの有用性を実証する。
論文 参考訳(メタデータ) (2023-02-23T10:54:36Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - COOPERNAUT: End-to-End Driving with Cooperative Perception for Networked
Vehicles [54.61668577827041]
本稿では,車間認識を用いたエンドツーエンド学習モデルであるCOOPERNAUTを紹介する。
われわれのAutoCastSim実験は、我々の協調知覚駆動モデルが平均成功率を40%向上させることを示唆している。
論文 参考訳(メタデータ) (2022-05-04T17:55:12Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。