論文の概要: AOP-Net: All-in-One Perception Network for Joint LiDAR-based 3D Object
Detection and Panoptic Segmentation
- arxiv url: http://arxiv.org/abs/2302.00885v1
- Date: Thu, 2 Feb 2023 05:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 15:14:44.757265
- Title: AOP-Net: All-in-One Perception Network for Joint LiDAR-based 3D Object
Detection and Panoptic Segmentation
- Title(参考訳): AOP-Net:ジョイントLiDARによる3次元物体検出とパノプティックセグメンテーションのためのオールインワン知覚ネットワーク
- Authors: Yixuan Xu, Hamidreza Fazlali, Yuan Ren, Bingbing Liu
- Abstract要約: AOP-NetはLiDARベースのマルチタスクフレームワークで、3Dオブジェクトの検出とパノプティクスのセグメンテーションを組み合わせたものである。
AOP-Netは、nuScenesベンチマークにおける3Dオブジェクト検出とパノプティクスセグメンテーションの両タスクについて、最先端のパフォーマンスを達成している。
- 参考スコア(独自算出の注目度): 9.513467995188634
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: LiDAR-based 3D object detection and panoptic segmentation are two crucial
tasks in the perception systems of autonomous vehicles and robots. In this
paper, we propose All-in-One Perception Network (AOP-Net), a LiDAR-based
multi-task framework that combines 3D object detection and panoptic
segmentation. In this method, a dual-task 3D backbone is developed to extract
both panoptic- and detection-level features from the input LiDAR point cloud.
Also, a new 2D backbone that intertwines Multi-Layer Perceptron (MLP) and
convolution layers is designed to further improve the detection task
performance. Finally, a novel module is proposed to guide the detection head by
recovering useful features discarded during down-sampling operations in the 3D
backbone. This module leverages estimated instance segmentation masks to
recover detailed information from each candidate object. The AOP-Net achieves
state-of-the-art performance for published works on the nuScenes benchmark for
both 3D object detection and panoptic segmentation tasks. Also, experiments
show that our method easily adapts to and significantly improves the
performance of any BEV-based 3D object detection method.
- Abstract(参考訳): LiDARをベースとした3Dオブジェクト検出と単眼セグメンテーションは、自動運転車とロボットの認識システムにおいて重要な2つのタスクである。
本稿では,3次元物体検出とpanopticセグメンテーションを組み合わせたlidarベースのマルチタスクフレームワークであるall-in-one perception network (aop-net)を提案する。
入力lidar点クラウドからpanopticレベルと検出レベルの両方の機能を抽出するために,デュアルタスク3dバックボーンを開発した。
また、マルチレイヤー・パーセプトロン(mlp)と畳み込み層とを挟む新しい2次元バックボーンをデザインし、検出タスクの性能をさらに向上させる。
最後に, 3次元バックボーンにおけるダウンサンプリング動作中に廃棄された有用な特徴を回収し, 検出ヘッドを誘導する新規モジュールを提案する。
このモジュールは推定インスタンスセグメンテーションマスクを利用して、各候補オブジェクトから詳細な情報を復元する。
AOP-Netは、nuScenesベンチマークの3Dオブジェクト検出とパノプティックセグメンテーションの両タスクで、最先端のパフォーマンスを達成する。
また,本手法はBEVを用いた3次元物体検出手法に適応し,性能を著しく向上することを示す。
関連論文リスト
- SSC3OD: Sparsely Supervised Collaborative 3D Object Detection from LiDAR
Point Clouds [16.612824810651897]
疎密な協調3Dオブジェクト検出フレームワークSSC3ODを提案する。
各エージェントは、シーン内の1つのオブジェクトをランダムにラベルするだけです。
疎調整された3Dオブジェクト検出器の性能を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-07-03T02:42:14Z) - LiDAR-Based 3D Object Detection via Hybrid 2D Semantic Scene Generation [38.38852904444365]
本稿では,2次元空間における3次元環境のセマンティクスと幾何学の両方をエンコードするシーン表現を提案する。
私たちのシンプルで効果的なデザインは、ほとんどの最先端の3Dオブジェクト検出器に簡単に統合できます。
論文 参考訳(メタデータ) (2023-04-04T04:05:56Z) - CMR3D: Contextualized Multi-Stage Refinement for 3D Object Detection [57.44434974289945]
本稿では,3次元オブジェクト検出(CMR3D)フレームワークのためのコンテキスト型マルチステージリファインメントを提案する。
我々のフレームワークは3Dシーンを入力として取り、シーンの有用なコンテキスト情報を明示的に統合しようと試みている。
3Dオブジェクトの検出に加えて,3Dオブジェクトカウント問題に対するフレームワークの有効性について検討する。
論文 参考訳(メタデータ) (2022-09-13T05:26:09Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - A Versatile Multi-View Framework for LiDAR-based 3D Object Detection
with Guidance from Panoptic Segmentation [9.513467995188634]
LiDARデータを用いた3Dオブジェクト検出は、自律運転システムにとって必須のコンポーネントである。
本稿では,3次元物体検出とパノプティックセグメンテーションを共同で行う新しいマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T04:57:05Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - BirdNet+: End-to-End 3D Object Detection in LiDAR Bird's Eye View [117.44028458220427]
自動運転車のオンボード3Dオブジェクト検出は、LiDARデバイスが捉えた幾何学情報に依存することが多い。
本稿では,BEV画像のみから指向性3Dボックスを推測可能な,エンドツーエンドの3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-09T15:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。