論文の概要: PCSCNet: Fast 3D Semantic Segmentation of LiDAR Point Cloud for
Autonomous Car using Point Convolution and Sparse Convolution Network
- arxiv url: http://arxiv.org/abs/2202.10047v1
- Date: Mon, 21 Feb 2022 08:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 09:06:03.435710
- Title: PCSCNet: Fast 3D Semantic Segmentation of LiDAR Point Cloud for
Autonomous Car using Point Convolution and Sparse Convolution Network
- Title(参考訳): PCSCNet:ポイントコンボリューションとスパースコンボリューションネットワークを用いた自動車用LiDARポイントクラウドの高速3次元セマンティックセマンティックセグメンテーション
- Authors: Jaehyun Park, Chansoo Kim, Kichun Jo
- Abstract要約: ポイント・コンボリューションと3次元スパース・コンボリューション(PCSCNet)を用いた高速なボクセル・セマンティック・セマンティック・セマンティック・セマンティック・セマンティクスモデルを提案する。
提案モデルは,点畳み込みに基づく特徴抽出を用いて,高ボクセル分解能と低ボクセル分解能を両立させるように設計されている。
- 参考スコア(独自算出の注目度): 8.959391124399925
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The autonomous car must recognize the driving environment quickly for safe
driving. As the Light Detection And Range (LiDAR) sensor is widely used in the
autonomous car, fast semantic segmentation of LiDAR point cloud, which is the
point-wise classification of the point cloud within the sensor framerate, has
attracted attention in recognition of the driving environment. Although the
voxel and fusion-based semantic segmentation models are the state-of-the-art
model in point cloud semantic segmentation recently, their real-time
performance suffer from high computational load due to high voxel resolution.
In this paper, we propose the fast voxel-based semantic segmentation model
using Point Convolution and 3D Sparse Convolution (PCSCNet). The proposed model
is designed to outperform at both high and low voxel resolution using point
convolution-based feature extraction. Moreover, the proposed model accelerates
the feature propagation using 3D sparse convolution after the feature
extraction. The experimental results demonstrate that the proposed model
outperforms the state-of-the-art real-time models in semantic segmentation of
SemanticKITTI and nuScenes, and achieves the real-time performance in LiDAR
point cloud inference.
- Abstract(参考訳): 自動運転車は安全運転のために素早く運転環境を認識する必要がある。
自動運転車では光検出範囲(lidar)センサが広く使用されているため、センサフレームレート内の点雲をポイント単位で分類するlidarポイントクラウドの高速セグメンテーションが、運転環境の認識において注目を集めている。
ボクセルと融合に基づくセマンティックセグメンテーションモデルは、最近のポイントクラウドセマンティックセグメンテーションにおける最先端モデルであるが、そのリアルタイム性能は、高ボクセル解像度による高い計算負荷に悩まされている。
本稿では,点畳み込みと3次元スパース畳み込み(pcscnet)を用いた,voxelに基づく高速意味セグメンテーションモデルを提案する。
提案モデルは,点畳み込みに基づく特徴抽出を用いて,高ボクセル分解能と低ボクセル分解能を両立させるように設計されている。
さらに,提案モデルでは,特徴抽出後の3次元スパース畳み込みを用いて特徴伝達を高速化する。
実験の結果,提案モデルはセマンティックkittiとnusceneのセマンティクスセグメンテーションにおいて最先端のリアルタイムモデルよりも優れており,lidar point cloud inferenceのリアルタイム性能を実現した。
関連論文リスト
- OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - FASTC: A Fast Attentional Framework for Semantic Traversability Classification Using Point Cloud [7.711666704468952]
点雲を用いたトラバーサビリティ評価の問題に対処する。
本稿では,垂直に配置された点雲から特徴を捉えるために PointNet を利用した柱状特徴抽出モジュールを提案する。
次に、LIDAR点雲の密度問題に適切に対応できる多フレーム情報を融合する新しい時間的アテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-06-24T12:01:55Z) - Rethinking Voxelization and Classification for 3D Object Detection [68.8204255655161]
LiDARポイントクラウドからの3Dオブジェクト検出の主な課題は、ネットワークの信頼性に影響を与えることなく、リアルタイムのパフォーマンスを実現することである。
本稿では,高速な動的ボキセラライザを実装することにより,ネットワークの推論速度と精度を同時に向上するソリューションを提案する。
さらに,予測対象を分類し,偽検出対象をフィルタリングする軽量検出サブヘッドモデルを提案する。
論文 参考訳(メタデータ) (2023-01-10T16:22:04Z) - Analyzing Deep Learning Representations of Point Clouds for Real-Time
In-Vehicle LiDAR Perception [2.365702128814616]
本稿では,現代の深層ニューラルネットワークで使用されているLiDAR点群を3次元点群処理に応用した新しい計算分類法を提案する。
これにより、計算効率、メモリ要件、表現能力の点で共通の利点と限界を明らかにする。
論文 参考訳(メタデータ) (2022-10-26T10:39:59Z) - BEVDetNet: Bird's Eye View LiDAR Point Cloud based Real-time 3D Object
Detection for Autonomous Driving [6.389322215324224]
キーポイント,ボックス予測,方向予測を用いたオブジェクト中心検出のための単一統一モデルとして,新しいセマンティックセマンティックセマンティクスアーキテクチャを提案する。
提案されたアーキテクチャは簡単に拡張でき、追加の計算なしで Road のようなセマンティックセグメンテーションクラスを含めることができる。
モデルは、KITTIデータセット上のIoU=0.5の平均精度で2%の最小精度の劣化で、他のトップ精度モデルよりも5倍高速です。
論文 参考訳(メタデータ) (2021-04-21T22:06:39Z) - LiDAR-based Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
LiDARベースのパノプティカルセグメンテーションは、オブジェクトとシーンを統一的に解析することを目的としている。
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,現在の最先端手法よりも優れた精度を実現する。
論文 参考訳(メタデータ) (2020-11-24T08:44:46Z) - Multi Projection Fusion for Real-time Semantic Segmentation of 3D LiDAR
Point Clouds [2.924868086534434]
本稿では,ポイントクラウドの複数のプロジェクションを利用する3次元ポイントクラウドセマンティックセマンティックセマンティクスの新しいアプローチを提案する。
我々のMulti-Projection Fusionフレームワークは、2つの異なる高効率2次元完全畳み込みモデルを用いて球面および鳥眼の視射影を解析する。
論文 参考訳(メタデータ) (2020-11-03T19:40:43Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Pseudo-LiDAR Point Cloud Interpolation Based on 3D Motion Representation
and Spatial Supervision [68.35777836993212]
我々はPseudo-LiDAR点雲ネットワークを提案し、時間的および空間的に高品質な点雲列を生成する。
点雲間のシーンフローを活用することにより,提案ネットワークは3次元空間運動関係のより正確な表現を学習することができる。
論文 参考訳(メタデータ) (2020-06-20T03:11:04Z) - Reconfigurable Voxels: A New Representation for LiDAR-Based Point Clouds [76.52448276587707]
本稿では,3次元点群から表現を構成する新しい手法であるReconfigurable Voxelsを提案する。
具体的には,各地区を一定数のボクセルで適応的にカバーするランダムウォーク方式を考案する。
この手法は,特に疎水領域において,ボクセル特性の安定性を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-04-06T15:07:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。