論文の概要: VINet: Lightweight, Scalable, and Heterogeneous Cooperative Perception
for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2212.07060v2
- Date: Wed, 22 Mar 2023 02:44:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 01:10:56.181263
- Title: VINet: Lightweight, Scalable, and Heterogeneous Cooperative Perception
for 3D Object Detection
- Title(参考訳): VINet:3次元物体検出のための軽量・スケーラブル・異種協調認識
- Authors: Zhengwei Bai, Guoyuan Wu, Matthew J. Barth, Yongkang Liu, Emrah Akin
Sisbot, Kentaro Oguchi
- Abstract要約: 協調知覚(CP)は自動運転の認知を著しく向上させる。
我々は、スケーラブルで軽量で異種な協調型3Dオブジェクト検出のための統合ディープラーニングベースのCPネットワークであるVINetを紹介する。
VINetは、システムレベルの計算コストが84%、システムレベルの通信コストが94%削減され、3D検出精度が向上する。
- 参考スコア(独自算出の注目度): 15.195933965761645
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Utilizing the latest advances in Artificial Intelligence (AI), the computer
vision community is now witnessing an unprecedented evolution in all kinds of
perception tasks, particularly in object detection. Based on multiple spatially
separated perception nodes, Cooperative Perception (CP) has emerged to
significantly advance the perception of automated driving. However, current
cooperative object detection methods mainly focus on ego-vehicle efficiency
without considering the practical issues of system-wide costs. In this paper,
we introduce VINet, a unified deep learning-based CP network for scalable,
lightweight, and heterogeneous cooperative 3D object detection. VINet is the
first CP method designed from the standpoint of large-scale system-level
implementation and can be divided into three main phases: 1) Global
Pre-Processing and Lightweight Feature Extraction which prepare the data into
global style and extract features for cooperation in a lightweight manner; 2)
Two-Stream Fusion which fuses the features from scalable and heterogeneous
perception nodes; and 3) Central Feature Backbone and 3D Detection Head which
further process the fused features and generate cooperative detection results.
An open-source data experimental platform is designed and developed for CP
dataset acquisition and model evaluation. The experimental analysis shows that
VINet can reduce 84% system-level computational cost and 94% system-level
communication cost while improving the 3D detection accuracy.
- Abstract(参考訳): 人工知能(AI)の最新の進歩を利用して、コンピュータービジョンコミュニティは、あらゆる種類の知覚タスク、特に物体検出において、前例のない進化を目撃している。
複数の空間分離された知覚ノードに基づき、協調知覚(cp)は自動運転の知覚を著しく前進させる。
しかし, 現行の協調物体検出手法は, システム全体のコストを考慮せずに, エゴ車効率に重点を置いている。
本稿では、スケーラブルで軽量で異種な協調型3Dオブジェクト検出のための統合ディープラーニングベースのCPネットワークであるVINetを紹介する。
VINetは、大規模システムレベルの実装の観点から設計された最初のCPメソッドであり、3つの主要なフェーズに分けられる。
1) データをグローバルなスタイルに準備し,かつ,軽量な協力のために特徴を抽出するグローバル事前処理及び軽量特徴抽出
2)スケーラブルで異質な知覚ノードから特徴を融合する2ストリーム融合
3) 融合した特徴をさらに処理し, 協調検出結果を生成する中央特徴バックボーンと3D検出ヘッド。
CPデータセットの取得とモデル評価のために,オープンソースのデータ実験プラットフォームを設計・開発する。
実験解析の結果,vinetは3次元検出精度を向上させつつ,84%の計算コストと94%の通信コストを削減できることがわかった。
関連論文リスト
- PVAFN: Point-Voxel Attention Fusion Network with Multi-Pooling Enhancing for 3D Object Detection [59.355022416218624]
点とボクセルの表現の統合は、LiDARベースの3Dオブジェクト検出においてより一般的になりつつある。
PVAFN(Point-Voxel Attention Fusion Network)と呼ばれる新しい2段3次元物体検出器を提案する。
PVAFNはマルチプール戦略を使用して、マルチスケールとリージョン固有の情報を効果的に統合する。
論文 参考訳(メタデータ) (2024-08-26T19:43:01Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - SiCP: Simultaneous Individual and Cooperative Perception for 3D Object Detection in Connected and Automated Vehicles [18.23919432049492]
連結車両と自動車両の協調認識は、伝統的に2台以上の車両の特徴マップの融合によって達成される。
この欠点は、車両資源が2つの知覚モデルを同時に使用するには不十分なため、協調的な知覚の採用を妨げる。
我々は、最先端のスタンドアロン認識バックボーンを幅広くサポートする汎用フレームワークである、同時個人協調知覚(SiCP)を提示する。
論文 参考訳(メタデータ) (2023-12-08T04:12:26Z) - V2X-AHD:Vehicle-to-Everything Cooperation Perception via Asymmetric
Heterogenous Distillation Network [13.248981195106069]
車両間協調認識システム(V2X-AHD)を提案する。
この研究によると、V2X-AHDは3次元物体検出の精度を効果的に向上し、ネットワークパラメータの数を削減できる。
論文 参考訳(メタデータ) (2023-10-10T13:12:03Z) - DeepSTEP -- Deep Learning-Based Spatio-Temporal End-To-End Perception
for Autonomous Vehicles [0.0]
我々はDeepSTEPというエンド・ツー・エンドの知覚アーキテクチャの概念を提示する。
DeepSTEPは、カメラ、LiDAR、RaDARからの生のセンサーデータを処理し、抽出したデータを深層融合ネットワークに結合する。
アーキテクチャのエンド・ツー・エンドの設計、タイムアウェア・アテンション・メカニズム、および複数の知覚タスクの統合により、現実世界のデプロイメントにおいて有望なソリューションとなる。
論文 参考訳(メタデータ) (2023-05-11T14:13:37Z) - Multi-level and multi-modal feature fusion for accurate 3D object
detection in Connected and Automated Vehicles [0.8701566919381223]
本稿では,3段階特徴抽出器を用いたディープニューラルネットワークを用いた3次元物体検出モデルを提案する。
提案した特徴抽出器は、2つの入力感覚モーダルから高次特徴を抽出し、畳み込み過程に捨てられた重要な特徴を回収する。
新たな融合方式は、感覚のモダリティと畳み込み層を効果的に融合させ、最も優れたグローバルな特徴を見出す。
論文 参考訳(メタデータ) (2022-12-15T00:25:05Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - Selective Convolutional Network: An Efficient Object Detector with
Ignoring Background [28.591619763438054]
Selective Convolutional Network (SCN) と呼ばれる効率的なオブジェクト検出器を導入し、意味のある情報を含む場所のみを選択的に計算する。
そこで本稿では,ネットワークの次を導くためのオーバーヘッドを無視できるような,精巧な構造を設計する。
論文 参考訳(メタデータ) (2020-02-04T10:07:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。