論文の概要: SiCP: Simultaneous Individual and Cooperative Perception for 3D Object
Detection in Connected and Automated Vehicles
- arxiv url: http://arxiv.org/abs/2312.04822v1
- Date: Fri, 8 Dec 2023 04:12:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:08:47.102204
- Title: SiCP: Simultaneous Individual and Cooperative Perception for 3D Object
Detection in Connected and Automated Vehicles
- Title(参考訳): SiCP:コネクテッド・オートマチック車両における3次元物体検出のための同時的個人・協調的知覚
- Authors: Deyuan Qu, Qi Chen, Tianyu Bai, Andy Qin, Hongsheng Lu, Heng Fan, Song
Fu, Qing Yang
- Abstract要約: 連結車両と自動車両の協調認識は、伝統的に2台以上の車両の特徴マップの融合によって達成される。
この欠点は、車両資源が2つの知覚モデルを同時に使用するには不十分なため、協調的な知覚の採用を妨げる。
我々は、最先端のスタンドアロン認識バックボーンを幅広くサポートする汎用フレームワークである、同時個人協調知覚(SiCP)を提示する。
- 参考スコア(独自算出の注目度): 15.636723407479444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperative perception for connected and automated vehicles is traditionally
achieved through the fusion of feature maps from two or more vehicles. However,
the absence of feature maps shared from other vehicles can lead to a
significant decline in object detection performance for cooperative perception
models compared to standalone 3D detection models. This drawback impedes the
adoption of cooperative perception as vehicle resources are often insufficient
to concurrently employ two perception models. To tackle this issue, we present
Simultaneous Individual and Cooperative Perception (SiCP), a generic framework
that supports a wide range of the state-of-the-art standalone perception
backbones and enhances them with a novel Dual-Perception Network (DP-Net)
designed to facilitate both individual and cooperative perception. In addition
to its lightweight nature with only 0.13M parameters, DP-Net is robust and
retains crucial gradient information during feature map fusion. As demonstrated
in a comprehensive evaluation on the OPV2V dataset, thanks to DP-Net, SiCP
surpasses state-of-the-art cooperative perception solutions while preserving
the performance of standalone perception solutions.
- Abstract(参考訳): 連結車両と自動車両の協調認識は、伝統的に2台以上の車両の特徴マップの融合によって達成される。
しかし、他の車両から共有される特徴マップがないことは、スタンドアロンの3次元検出モデルと比較して、協調認識モデルにおける物体検出性能が著しく低下する可能性がある。
この欠点は、車両資源が2つの知覚モデルを同時に使用するには不十分なため、協調的な知覚の採用を妨げる。
この問題に対処するため,我々は,最先端のスタンドアロン知覚バックボーンをサポートし,個人と協調的な知覚を容易にするように設計された新しいデュアル・パーセプション・ネットワーク(dp-net)を用いて,それらを強化する汎用フレームワークであるsicp(sonic individual and cooperative perception)を提案する。
0.13Mのパラメータしか持たない軽量な性質に加えて、DP-Netは頑丈であり、特徴マップの融合時に重要な勾配情報を保持する。
DP-NetによるOPV2Vデータセットの総合評価で示されているように、SiCPはスタンドアロンの知覚ソリューションの性能を維持しながら、最先端の協調認識ソリューションを超越している。
関連論文リスト
- V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - CoBEVFusion: Cooperative Perception with LiDAR-Camera Bird's-Eye View
Fusion [0.0]
協調認識における最近のアプローチは、カメラやLiDARのような単一のセンサー情報しか共有していない。
我々は,LiDARとカメラデータを融合してBird's-Eye View(BEV)表現を生成する,CoBEVFusionというフレームワークを提案する。
BEVセマンティックセグメンテーションと3Dオブジェクト検出という2つの認識課題に対して,協調認識データセットOPV2Vを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-09T17:52:26Z) - UniM$^2$AE: Multi-modal Masked Autoencoders with Unified 3D
Representation for 3D Perception in Autonomous Driving [51.37470133438836]
Masked Autoencoders (MAE)は、強力な表現の学習において重要な役割を担い、様々な3D知覚タスクにおいて優れた結果をもたらす。
この研究は、自律運転における統一された表現空間に適したマルチモーダルのMasked Autoencodersに展開する。
画像に固有のセマンティクスとLiDAR点雲の幾何学的複雑さを複雑に結合するために、UniM$2$AEを提案する。
論文 参考訳(メタデータ) (2023-08-21T02:13:40Z) - UniTR: A Unified and Efficient Multi-Modal Transformer for
Bird's-Eye-View Representation [113.35352122662752]
屋外3次元知覚のためのマルチモーダルバックボーンUniTRを提案する。
UniTRは、統一されたモデリングと共有パラメータで様々なモダリティを処理する。
UniTRは基本的にタスクに依存しないバックボーンであり、異なる3D知覚タスクを自然にサポートする。
論文 参考訳(メタデータ) (2023-08-15T12:13:44Z) - CoPEM: Cooperative Perception Error Models for Autonomous Driving [20.60246432605745]
我々は、隠蔽対象の誤検知エラーとして現れる自律走行車(AV)の(車載)知覚に焦点を当てる。
本稿では,仮想テスト環境におけるV2Xソリューションの効果的な統合を実現するために,協調知覚誤りモデル(coPEM)の概念を導入する。
論文 参考訳(メタデータ) (2022-11-21T04:40:27Z) - Adaptive Feature Fusion for Cooperative Perception using LiDAR Point
Clouds [0.0]
協調認識により、コネクテッド・オートモービルは近隣の他のCAVと対話することができる。
盲点、低解像度、気象効果などの従来の車体知覚の限界を補うことができる。
CODDデータセットを用いた車両と歩行者の両方の協調認識性能の評価を行った。
論文 参考訳(メタデータ) (2022-07-30T01:53:05Z) - Collaborative 3D Object Detection for Automatic Vehicle Systems via
Learnable Communications [8.633120731620307]
本稿では,3つのコンポーネントから構成される新しい3次元オブジェクト検出フレームワークを提案する。
実験結果と帯域使用量分析により,本手法は通信コストと計算コストを削減できることを示した。
論文 参考訳(メタデータ) (2022-05-24T07:17:32Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。