論文の概要: PillarSegNet: Pillar-based Semantic Grid Map Estimation using Sparse
LiDAR Data
- arxiv url: http://arxiv.org/abs/2105.04169v1
- Date: Mon, 10 May 2021 08:03:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 14:35:50.847281
- Title: PillarSegNet: Pillar-based Semantic Grid Map Estimation using Sparse
LiDAR Data
- Title(参考訳): PillarSegNet:スパースLiDARデータを用いたPillarベースのセマンティックグリッドマップ推定
- Authors: Juncong Fei, Kunyu Peng, Philipp Heidenreich, Frank Bieder and
Christoph Stiller
- Abstract要約: 我々は,高密度なセマンティックグリッドマップを出力できるPillarSegNetを提案する。
以前に提案されたグリッドマップ法とは対照的に、PillarSegNetはPointNetを使用して3Dポイントクラウドから直接機能を学ぶ。
我々はPillarSegNetが最先端グリッドマップ法よりも約10%mIoUの性能向上を実現していることを示す。
- 参考スコア(独自算出の注目度): 2.4038276485632846
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Semantic understanding of the surrounding environment is essential for
automated vehicles. The recent publication of the SemanticKITTI dataset
stimulates the research on semantic segmentation of LiDAR point clouds in urban
scenarios. While most existing approaches predict sparse pointwise semantic
classes for the sparse input LiDAR scan, we propose PillarSegNet to be able to
output a dense semantic grid map. In contrast to a previously proposed grid map
method, PillarSegNet uses PointNet to learn features directly from the 3D point
cloud and then conducts 2D semantic segmentation in the top view. To train and
evaluate our approach, we use both sparse and dense ground truth, where the
dense ground truth is obtained from multiple superimposed scans. Experimental
results on the SemanticKITTI dataset show that PillarSegNet achieves a
performance gain of about 10% mIoU over the state-of-the-art grid map method.
- Abstract(参考訳): 環境のセマンティックな理解は自動走行車にとって不可欠である。
SemanticKITTIデータセットの最近の発表は、都市シナリオにおけるLiDAR点雲のセマンティックセグメンテーションの研究を刺激している。
既存のほとんどのアプローチでは、スパース入力LiDARスキャンのためのスパースポイントワイズセマンティッククラスを予測しているが、PillarSegNetでは、密接なセマンティックグリッドマップを出力できる。
以前提案されたグリッドマップとは対照的に、PillarSegNetはPointNetを使用して3Dポイントクラウドから直接機能を学習し、トップビューで2Dセマンティックセマンティックセグメンテーションを実行する。
提案手法の訓練と評価には,複数の重ね合わせスキャンから高密度地盤真理が得られるスパースと高密度地盤真理の両方を用いる。
SemanticKITTIデータセットの実験結果は、PillarSegNetが最先端グリッドマップ法よりも約10%mIoUの性能向上を達成したことを示している。
関連論文リスト
- Bayesian Self-Training for Semi-Supervised 3D Segmentation [59.544558398992386]
3Dセグメンテーションはコンピュータビジョンの中核的な問題である。
完全に教師されたトレーニングを採用するために、3Dポイントクラウドを密にラベル付けすることは、労働集約的で高価です。
半教師付きトレーニングは、ラベル付きデータの小さなセットのみを付与し、より大きなラベル付きデータセットを伴って、より実用的な代替手段を提供する。
論文 参考訳(メタデータ) (2024-09-12T14:54:31Z) - LISNeRF Mapping: LiDAR-based Implicit Mapping via Semantic Neural Fields for Large-Scale 3D Scenes [2.822816116516042]
大規模セマンティックマッピングは、屋外の自律エージェントが計画やナビゲーションといった高度なタスクを遂行するために不可欠である。
本稿では,提案するLiDAR測度のみでの暗黙的表現による大規模3次元意味再構築手法を提案する。
論文 参考訳(メタデータ) (2023-11-04T03:55:38Z) - Volumetric Semantically Consistent 3D Panoptic Mapping [77.13446499924977]
非構造環境における自律エージェントに適したセマンティック3Dマップを生成することを目的としたオンライン2次元から3次元のセマンティック・インスタンスマッピングアルゴリズムを提案する。
マッピング中にセマンティック予測の信頼性を統合し、セマンティックおよびインスタンス一貫性のある3D領域を生成する新しい方法を導入する。
提案手法は,パブリックな大規模データセット上での最先端の精度を実現し,多くの広く使用されているメトリクスを改善した。
論文 参考訳(メタデータ) (2023-09-26T08:03:10Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - SATR: Zero-Shot Semantic Segmentation of 3D Shapes [74.08209893396271]
大規模オフザシェルフ2次元画像認識モデルを用いて3次元形状のゼロショットセマンティックセマンティックセマンティックセグメンテーションの課題について検討する。
本研究では、SATRアルゴリズムを開発し、ShapeNetPartと提案したFAUSTベンチマークを用いて評価する。
SATRは最先端のパフォーマンスを達成し、ベースラインアルゴリズムを平均mIoUの1.3%と4%で上回っている。
論文 参考訳(メタデータ) (2023-04-11T00:43:16Z) - Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations [3.0413873719021995]
我々は、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい方法を提案する。
このアプローチは、トップビューグリッドマップのセマンティックセグメンテーションを改善することを目的としている。
各表現に対して、セマンティック情報を効果的に抽出するために、調整されたディープラーニングアーキテクチャが開発された。
論文 参考訳(メタデータ) (2022-03-02T14:49:51Z) - LatticeNet: Fast Spatio-Temporal Point Cloud Segmentation Using
Permutohedral Lattices [27.048998326468688]
深層畳み込みニューラルネットワーク(CNN)は、画像のセグメンテーションに際し、優れた性能を示している。
本稿では,3次元セマンティックセグメンテーションの新たなアプローチであるLatticeNetを提案する。
本稿では,本手法が最先端性能を実現する複数のデータセット上での3次元セグメント化の結果について述べる。
論文 参考訳(メタデータ) (2021-08-09T10:17:27Z) - S3Net: 3D LiDAR Sparse Semantic Segmentation Network [1.330528227599978]
S3NetはLiDARポイントクラウドセマンティックセグメンテーションのための新しい畳み込みニューラルネットワークである。
sparse intra-channel attention module (sintraam)とsparse inter-channel attention module (sinteram)で構成されるエンコーダ-デコーダバックボーンを採用する。
論文 参考訳(メタデータ) (2021-03-15T22:15:24Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z) - Exploiting Multi-Layer Grid Maps for Surround-View Semantic Segmentation
of Sparse LiDAR Data [2.6876976011647145]
本稿では,LDARのみのセマンティックセグメンテーションの課題にアプローチするために,レーザレンジ測定をトップビューグリッドマップ表現に変換することを検討する。
我々はグリッドマップフレームワークを利用して関連情報を抽出し,多層グリッドマップを用いてそれらを表現している。
単層および多層アプローチを比較し、多層グリッドマップ入力の利点を実証する。
論文 参考訳(メタデータ) (2020-05-13T23:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。