論文の概要: NUC-Net: Non-uniform Cylindrical Partition Network for Efficient LiDAR Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2505.24634v1
- Date: Fri, 30 May 2025 14:25:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.996786
- Title: NUC-Net: Non-uniform Cylindrical Partition Network for Efficient LiDAR Semantic Segmentation
- Title(参考訳): NUC-Net: 効率的なLiDARセマンティックセグメンテーションのための不均一円筒分割ネットワーク
- Authors: Xuzhi Wang, Wei Feng, Lingdong Kong, Liang Wan,
- Abstract要約: 我々は,LDARセマンティックセグメンテーションの課題に対処するために,NUC-Netという不均一な円筒分割ネットワークを提案する。
提案手法は,Semantic KITTIとnuScenesのデータセットに対して,より高速かつ訓練時間の少ない最先端性能を実現する。
この手法はLiDARセマンティックセマンティックセグメンテーションの一般的なコンポーネントであり、均一なセマンティックセグメンテーションの精度と効率を4倍の高速化と2倍のGPUメモリ削減と3倍の推論スピードアップで大幅に向上させることができる。
- 参考スコア(独自算出の注目度): 17.280357264324376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR semantic segmentation plays a vital role in autonomous driving. Existing voxel-based methods for LiDAR semantic segmentation apply uniform partition to the 3D LiDAR point cloud to form a structured representation based on cartesian/cylindrical coordinates. Although these methods show impressive performance, the drawback of existing voxel-based methods remains in two aspects: (1) it requires a large enough input voxel resolution, which brings a large amount of computation cost and memory consumption. (2) it does not well handle the unbalanced point distribution of LiDAR point cloud. In this paper, we propose a non-uniform cylindrical partition network named NUC-Net to tackle the above challenges. Specifically, we propose the Arithmetic Progression of Interval (API) method to non-uniformly partition the radial axis and generate the voxel representation which is representative and efficient. Moreover, we propose a non-uniform multi-scale aggregation method to improve contextual information. Our method achieves state-of-the-art performance on SemanticKITTI and nuScenes datasets with much faster speed and much less training time. And our method can be a general component for LiDAR semantic segmentation, which significantly improves both the accuracy and efficiency of the uniform counterpart by $4 \times$ training faster and $2 \times$ GPU memory reduction and $3 \times$ inference speedup. We further provide theoretical analysis towards understanding why NUC is effective and how point distribution affects performance. Code is available at \href{https://github.com/alanWXZ/NUC-Net}{https://github.com/alanWXZ/NUC-Net}.
- Abstract(参考訳): LiDARセマンティックセグメンテーションは自動運転において重要な役割を担っている。
既存のボクセルによるLiDARセマンティックセグメンテーションの手法は、3次元LiDAR点雲に一様分割を適用し、カルデシアン/円筒座標に基づく構造化表現を形成する。
これらの手法は優れた性能を示すが、既存のボクセルベースの手法の欠点は、(1)大量の計算コストとメモリ消費をもたらす十分な入力ボクセル解像度を必要とするという2つの側面に留まっている。
2) LiDAR 点雲の非平衡点分布はうまく扱えない。
本稿では,この課題に対処するために,NUC-Netという一様でない円筒分割ネットワークを提案する。
具体的には,非均一にラジアル軸を分割し,代表的で効率的なボクセル表現を生成するために,API法(Arithmetic Progression of Interval)を提案する。
さらに,文脈情報を改善するために,一様でないマルチスケールアグリゲーション手法を提案する。
提案手法は,SemanticKITTIとnuScenesのデータセット上での最先端性能を実現する。
この手法はLiDARセマンティックセマンティックセグメンテーションの一般的なコンポーネントであり、均一なセマンティックセグメンテーションの精度と効率を4 \times$トレーニングと2 \times$GPUメモリ削減と3 \times$推論スピードアップで大幅に向上させる。
さらに,なぜNUCが有効か,どのように点分布が性能に影響を及ぼすのかを理解するための理論的分析を行う。
コードは \href{https://github.com/alanWXZ/NUC-Net}{https://github.com/alanWXZ/NUC-Net} で入手できる。
関連論文リスト
- Sparse VideoGen2: Accelerate Video Generation with Sparse Attention via Semantic-Aware Permutation [57.56385490252605]
拡散変換器(DiT)はビデオ生成に必須であるが,注意の2次複雑さにより遅延が著しく低下する。
SVG2は,識別精度を最大化し,無駄を最小化する学習自由フレームワークである。
論文 参考訳(メタデータ) (2025-05-24T21:30:29Z) - FLARES: Fast and Accurate LiDAR Multi-Range Semantic Segmentation [52.89847760590189]
3Dシーンの理解は、自動運転における重要な課題である。
近年の手法では、レンジビュー表現を利用して処理効率を向上している。
範囲ビューに基づくLiDARセマンティックセマンティックセグメンテーションのためのワークフローを再設計する。
論文 参考訳(メタデータ) (2025-02-13T12:39:26Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - Spatial-information Guided Adaptive Context-aware Network for Efficient
RGB-D Semantic Segmentation [9.198120596225968]
計算パラメータを削減し,アルゴリズムの堅牢性を保証する,効率的な軽量エンコーダデコーダネットワークを提案する。
また,NYUv2,SUN RGB-D,Cityscapesのデータセットを用いた実験結果から,本手法は最先端手法よりもセグメンテーション精度,推定時間,パラメータのトレードオフが良好であることが示された。
論文 参考訳(メタデータ) (2023-08-11T09:02:03Z) - LENet: Lightweight And Efficient LiDAR Semantic Segmentation Using
Multi-Scale Convolution Attention [0.0]
本稿では,LDARに基づくセマンティックセマンティックセマンティクスのためのエンコーダデコーダ構造を持つLENetと呼ばれるプロジェクションベースのセマンティクスセマンティクスセマンティクスネットワークを提案する。
エンコーダは、特徴を捉えるために、様々な受信フィールドサイズを持つ新しいマルチスケール・コンボリューション・アテンション(MSCA)モジュールで構成されている。
提案手法は, 最先端のセマンティックセグメンテーション法と比較して, 軽量で, 効率的で, 堅牢であることを示す。
論文 参考訳(メタデータ) (2023-01-11T02:51:38Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - CENet: Toward Concise and Efficient LiDAR Semantic Segmentation for
Autonomous Driving [4.6193503399184275]
我々はtextbfCENet という画像に基づくセマンティックセマンティックセマンティックネットワークを提案する。
当社のパイプラインは,最先端モデルと比較して,mIoUと推論性能がはるかに向上している。
論文 参考訳(メタデータ) (2022-07-26T07:22:19Z) - CPGNet: Cascade Point-Grid Fusion Network for Real-Time LiDAR Semantic
Segmentation [8.944151935020992]
本稿では,有効性と効率を両立するカスケードポイントグリッド融合ネットワーク(CPGNet)を提案する。
アンサンブルモデルやTTAのないCPGNetは最先端のRPVNetと同等だが、4.7倍高速である。
論文 参考訳(メタデータ) (2022-04-21T06:56:30Z) - Dynamic Convolution for 3D Point Cloud Instance Segmentation [146.7971476424351]
動的畳み込みに基づく3次元点雲からのインスタンスセグメンテーション手法を提案する。
我々は、同じ意味圏と閉投票を持つ等質点を幾何学的遠近点に対して収集する。
提案手法は提案不要であり、代わりに各インスタンスの空間的および意味的特性に適応する畳み込みプロセスを利用する。
論文 参考訳(メタデータ) (2021-07-18T09:05:16Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。