論文の概要: LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network
- arxiv url: http://arxiv.org/abs/2203.07186v1
- Date: Mon, 14 Mar 2022 15:25:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 15:54:44.264548
- Title: LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network
- Title(参考訳): 動的シフトネットワークによるLiDARによる4次元パノプティカルセグメンテーション
- Authors: Fangzhou Hong, Hui Zhou, Xinge Zhu, Hongsheng Li, Ziwei Liu
- Abstract要約: 本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
- 参考スコア(独自算出の注目度): 56.71765153629892
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the rapid advances of autonomous driving, it becomes critical to equip
its sensing system with more holistic 3D perception. However, existing works
focus on parsing either the objects (e.g. cars and pedestrians) or scenes (e.g.
trees and buildings) from the LiDAR sensor. In this work, we address the task
of LiDAR-based panoptic segmentation, which aims to parse both objects and
scenes in a unified manner. As one of the first endeavors towards this new
challenging task, we propose the Dynamic Shifting Network (DS-Net), which
serves as an effective panoptic segmentation framework in the point cloud
realm. In particular, DS-Net has three appealing properties: 1) Strong backbone
design. DS-Net adopts the cylinder convolution that is specifically designed
for LiDAR point clouds. 2) Dynamic Shifting for complex point distributions. We
observe that commonly-used clustering algorithms are incapable of handling
complex autonomous driving scenes with non-uniform point cloud distributions
and varying instance sizes. Thus, we present an efficient learnable clustering
module, dynamic shifting, which adapts kernel functions on the fly for
different instances. 3) Extension to 4D prediction. Furthermore, we extend
DS-Net to 4D panoptic LiDAR segmentation by the temporally unified instance
clustering on aligned LiDAR frames. To comprehensively evaluate the performance
of LiDAR-based panoptic segmentation, we construct and curate benchmarks from
two large-scale autonomous driving LiDAR datasets, SemanticKITTI and nuScenes.
Extensive experiments demonstrate that our proposed DS-Net achieves superior
accuracies over current state-of-the-art methods in both tasks. Notably, in the
single frame version of the task, we outperform the SOTA method by 1.8% in
terms of the PQ metric. In the 4D version of the task, we surpass 2nd place by
5.4% in terms of the LSTQ metric.
- Abstract(参考訳): 自動運転の急速な進歩により、そのセンシングシステムはより全体論的3d知覚を備えることが重要になる。
しかし、既存の作品は、lidarセンサーから物体(車や歩行者など)やシーン(木や建物など)を解析することに焦点を当てている。
本研究では,オブジェクトとシーンを統一的に解析することを目的とした,LiDARに基づくパノプティックセグメンテーションの課題に対処する。
本稿では,この新しい課題に対する最初の取り組みとして,ポイントクラウド領域における効果的なパノミックセグメンテーションフレームワークとして機能する動的シフトネットワーク(ds-net)を提案する。
特にds-netには3つの魅力がある。
1)強力なバックボーン設計。
DS-Netは、LiDAR点雲用に特別に設計されたシリンダー畳み込みを採用している。
2)複素点分布に対する動的シフト
一般的なクラスタリングアルゴリズムでは、不均一なポイントクラウド分布と異なるインスタンスサイズで複雑な自律運転シーンを処理できないことが観察される。
そこで我々は,異なるインスタンスに対してオンザフライでカーネル関数を適応させる効率的な学習可能なクラスタリングモジュールである動的シフトを提案する。
3) 4次元予測の拡張。
さらに、DS-Netを4DパノプティカルLiDARセグメンテーションに拡張し、同期LiDARフレーム上の時間的に統一されたインスタンスクラスタリングを行う。
そこで我々は,LiDARを用いた大規模自動運転LiDARデータセットであるSemanticKITTIとnuScenesのベンチマークを構築し,評価した。
拡張実験により,提案したDS-Netは,両タスクの現在の最先端手法よりも優れた精度を達成できることが示された。
特に、タスクの単一フレームバージョンでは、pqメトリックの観点でsomaメソッドを1.8%上回っています。
タスクの4Dバージョンでは、LSTQメートル法で2位を5.4%上回る。
関連論文リスト
- LiDAR-BEVMTN: Real-Time LiDAR Bird's-Eye View Multi-Task Perception Network for Autonomous Driving [12.713417063678335]
本稿では,LiDARに基づくオブジェクト検出,意味論,動作セグメンテーションのためのリアルタイムマルチタスク畳み込みニューラルネットワークを提案する。
オブジェクト検出を選択的に改善するためのセマンティック・ウェイト・アンド・ガイダンス(SWAG)モジュールを提案する。
我々は,2つのタスク,セマンティックとモーションセグメンテーション,および3Dオブジェクト検出のための最先端性能に近い2つのタスクに対して,最先端の結果を得る。
論文 参考訳(メタデータ) (2023-07-17T21:22:17Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - LWSIS: LiDAR-guided Weakly Supervised Instance Segmentation for
Autonomous Driving [34.119642131912485]
より巧妙なフレームワークであるLiDAR誘導弱監視インスタンス(LWSIS)を提示する。
LWSISは市販の3Dデータ、すなわちポイントクラウドと3Dボックスを2Dイメージインスタンスセグメンテーションモデルをトレーニングするための自然な弱い監督手段として使用している。
我々のLWSISは、訓練中のマルチモーダルデータの補完情報を利用するだけでなく、密集した2Dマスクのコストを大幅に削減します。
論文 参考訳(メタデータ) (2022-12-07T08:08:01Z) - Efficient Spatial-Temporal Information Fusion for LiDAR-Based 3D Moving
Object Segmentation [23.666607237164186]
本稿では,LiDAR-MOSの性能向上のために,空間時空間情報とLiDARスキャンの異なる表現モダリティを併用した新しいディープニューラルネットワークを提案する。
具体的には、まず、空間情報と時間情報とを別々に扱うために、レンジ画像に基づくデュアルブランチ構造を用いる。
また、3次元スパース畳み込みによるポイントリファインメントモジュールを使用して、LiDAR範囲の画像とポイントクラウド表現の両方からの情報を融合する。
論文 参考訳(メタデータ) (2022-07-05T17:59:17Z) - PillarGrid: Deep Learning-based Cooperative Perception for 3D Object
Detection from Onboard-Roadside LiDAR [15.195933965761645]
我々は,複数の3次元LiDARからの情報を融合した新しい協調認識手法であるtextitPillarGridを提案する。
PillarGrid は,1) 点雲の協調前処理,2) 軸方向のボキセル化と特徴抽出,3) 複数のセンサからの特徴のグリッド方向の深層融合,4) 畳み込みニューラルネットワーク(CNN) に基づく3Dオブジェクト検出である。
広汎な実験により、PillarGridはSOTA単一LiDARに基づく3Dオブジェクト検出法よりも精度と範囲を大きなマージンで上回ることがわかった。
論文 参考訳(メタデータ) (2022-03-12T02:28:41Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR
Segmentation [81.02742110604161]
大規模運転シーンのLiDARセグメンテーションのための最先端の手法は、しばしば点雲を2次元空間に投影し、2D畳み込みによって処理する。
そこで我々は,3次元幾何学的パタンを探索するために,円筒分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
提案手法はセマンティックKITTIのリーダーボードにおいて第1位を獲得し,既存のnuScenesの手法を約4%のマージンで上回っている。
論文 参考訳(メタデータ) (2020-11-19T18:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。