論文の概要: Exploiting Multi-Layer Grid Maps for Surround-View Semantic Segmentation
of Sparse LiDAR Data
- arxiv url: http://arxiv.org/abs/2005.06667v1
- Date: Wed, 13 May 2020 23:50:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 13:43:38.297656
- Title: Exploiting Multi-Layer Grid Maps for Surround-View Semantic Segmentation
of Sparse LiDAR Data
- Title(参考訳): スパースLiDARデータのサラウンドビューセマンティックセマンティックセグメンテーションのためのマルチレイヤグリッドマップのエクスプロイト
- Authors: Frank Bieder, Sascha Wirges, Johannes Janosovits, Sven Richter,
Zheyuan Wang, and Christoph Stiller
- Abstract要約: 本稿では,LDARのみのセマンティックセグメンテーションの課題にアプローチするために,レーザレンジ測定をトップビューグリッドマップ表現に変換することを検討する。
我々はグリッドマップフレームワークを利用して関連情報を抽出し,多層グリッドマップを用いてそれらを表現している。
単層および多層アプローチを比較し、多層グリッドマップ入力の利点を実証する。
- 参考スコア(独自算出の注目度): 2.6876976011647145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the transformation of laser range measurements
into a top-view grid map representation to approach the task of LiDAR-only
semantic segmentation. Since the recent publication of the SemanticKITTI data
set, researchers are now able to study semantic segmentation of urban LiDAR
sequences based on a reasonable amount of data. While other approaches propose
to directly learn on the 3D point clouds, we are exploiting a grid map
framework to extract relevant information and represent them by using
multi-layer grid maps. This representation allows us to use well-studied deep
learning architectures from the image domain to predict a dense semantic grid
map using only the sparse input data of a single LiDAR scan. We compare
single-layer and multi-layer approaches and demonstrate the benefit of a
multi-layer grid map input. Since the grid map representation allows us to
predict a dense, 360{\deg} semantic environment representation, we further
develop a method to combine the semantic information from multiple scans and
create dense ground truth grids. This method allows us to evaluate and compare
the performance of our models not only based on grid cells with a detection,
but on the full visible measurement range.
- Abstract(参考訳): 本稿では,LiDARのみのセマンティックセグメンテーションの課題にアプローチするために,レーザーレンジ計測をトップビューグリッドマップ表現に変換することを検討する。
SemanticKITTIデータセットが最近発表されて以来、研究者は妥当な量のデータに基づいて都市LiDARシーケンスのセマンティックセグメンテーションを研究することができるようになった。
他のアプローチでは、3dポイントクラウドで直接学習することを提案していますが、私たちはグリッドマップフレームワークを利用して関連する情報を抽出し、マルチレイヤーグリッドマップを使って表現しています。
この表現により、画像領域からのよく研究されたディープラーニングアーキテクチャを用いて、単一のLiDARスキャンのスパース入力データのみを用いて、密なセマンティックグリッドマップを予測できる。
単層と多層のアプローチを比較し,多層グリッドマップ入力の利点を実証する。
グリッドマップの表現により,密集した360{\deg}意味環境の表現を予測できるので,複数のスキャンから意味情報を合成し,密集した真実のグリッドを作成する手法をさらに開発する。
本手法により, グリッドセルを検出対象とするだけでなく, フル可視範囲でモデルの性能を評価, 比較することが可能となる。
関連論文リスト
- Multilayer Graph Approach to Deep Subspace Clustering [0.0]
自己表現型モデル学習表現行列に基づくディープサブスペースクラスタリング(DSC)ネットワークは、完全に接続されたネットワークで実装されることが多い。
本稿では,入力データを含むエンコーダネットワークの全層から学習した表現から,選択した線形部分空間クラスタリングアルゴリズムを用いて表現を学習する。
ベースラインモデルとして2つのDSCネットワークを持つ4つのよく知られたデータセットに対して,提案手法を検証した。
論文 参考訳(メタデータ) (2024-01-30T14:09:41Z) - LISNeRF Mapping: LiDAR-based Implicit Mapping via Semantic Neural Fields for Large-Scale 3D Scenes [2.822816116516042]
大規模セマンティックマッピングは、屋外の自律エージェントが計画やナビゲーションといった高度なタスクを遂行するために不可欠である。
本稿では,提案するLiDAR測度のみでの暗黙的表現による大規模3次元意味再構築手法を提案する。
論文 参考訳(メタデータ) (2023-11-04T03:55:38Z) - Large-Scale Multi-Hypotheses Cell Tracking Using Ultrametric Contours Maps [1.015920567871904]
本稿では,分割選択手法による大規模3次元細胞追跡手法について述べる。
本手法は,細胞追跡課題から得られた3次元画像の最先端化を実現する。
われわれのフレームワークは柔軟で、市販のセルセグメンテーションモデルからのセグメンテーションをサポートしている。
論文 参考訳(メタデータ) (2023-08-08T18:41:38Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations [3.0413873719021995]
我々は、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい方法を提案する。
このアプローチは、トップビューグリッドマップのセマンティックセグメンテーションを改善することを目的としている。
各表現に対して、セマンティック情報を効果的に抽出するために、調整されたディープラーニングアーキテクチャが開発された。
論文 参考訳(メタデータ) (2022-03-02T14:49:51Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - PillarSegNet: Pillar-based Semantic Grid Map Estimation using Sparse
LiDAR Data [2.4038276485632846]
我々は,高密度なセマンティックグリッドマップを出力できるPillarSegNetを提案する。
以前に提案されたグリッドマップ法とは対照的に、PillarSegNetはPointNetを使用して3Dポイントクラウドから直接機能を学ぶ。
我々はPillarSegNetが最先端グリッドマップ法よりも約10%mIoUの性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2021-05-10T08:03:11Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。