論文の概要: Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations
- arxiv url: http://arxiv.org/abs/2203.01151v1
- Date: Wed, 2 Mar 2022 14:49:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:38:57.573087
- Title: Improving Lidar-Based Semantic Segmentation of Top-View Grid Maps by
Learning Features in Complementary Representations
- Title(参考訳): 補完表現における特徴学習によるトップビューグリッドマップのライダーベースセマンティックセマンティックセグメンテーションの改善
- Authors: Frank Bieder, Maximilian Link, Simon Romanski, Haohao Hu, Christoph
Stiller
- Abstract要約: 我々は、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい方法を提案する。
このアプローチは、トップビューグリッドマップのセマンティックセグメンテーションを改善することを目的としている。
各表現に対して、セマンティック情報を効果的に抽出するために、調整されたディープラーニングアーキテクチャが開発された。
- 参考スコア(独自算出の注目度): 3.0413873719021995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we introduce a novel way to predict semantic information from
sparse, single-shot LiDAR measurements in the context of autonomous driving. In
particular, we fuse learned features from complementary representations. The
approach is aimed specifically at improving the semantic segmentation of
top-view grid maps. Towards this goal the 3D LiDAR point cloud is projected
onto two orthogonal 2D representations. For each representation a tailored deep
learning architecture is developed to effectively extract semantic information
which are fused by a superordinate deep neural network. The contribution of
this work is threefold: (1) We examine different stages within the segmentation
network for fusion. (2) We quantify the impact of embedding different features.
(3) We use the findings of this survey to design a tailored deep neural network
architecture leveraging respective advantages of different representations. Our
method is evaluated using the SemanticKITTI dataset which provides a point-wise
semantic annotation of more than 23.000 LiDAR measurements.
- Abstract(参考訳): 本稿では、自律運転の文脈において、スパースで単発のLiDAR測定から意味情報を予測するための新しい手法を提案する。
特に,補完表現から学習した特徴を融合させる。
このアプローチは、トップビューグリッドマップのセマンティクスセグメンテーションを改善することを目的としている。
この目標に向けて、3D LiDAR点雲は2つの直交2次元表現に投影される。
各表現に対して、上位の深層ニューラルネットワークによって融合された意味情報を効果的に抽出する。
本研究の貢献は以下の3つである: (1) 核融合のためのセグメンテーションネットワーク内の異なる段階について検討する。
2) 異なる特徴を埋め込むことの影響を定量化する。
3)本調査の結果を用いて,異なる表現の長所をそれぞれ活用したディープニューラルネットワークアーキテクチャの設計を行った。
提案手法は,23万以上のLiDAR測定のポイントワイド意味アノテーションを提供するSemanticKITTIデータセットを用いて評価する。
関連論文リスト
- LISNeRF Mapping: LiDAR-based Implicit Mapping via Semantic Neural Fields for Large-Scale 3D Scenes [2.822816116516042]
大規模セマンティックマッピングは、屋外の自律エージェントが計画やナビゲーションといった高度なタスクを遂行するために不可欠である。
本稿では,提案するLiDAR測度のみでの暗黙的表現による大規模3次元意味再構築手法を提案する。
論文 参考訳(メタデータ) (2023-11-04T03:55:38Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Similarity-Aware Fusion Network for 3D Semantic Segmentation [87.51314162700315]
本研究では,3次元セマンティックセグメンテーションのための2次元画像と3次元点雲を適応的に融合する類似性認識融合ネットワーク(SAFNet)を提案する。
我々は、入力とバックプロジェクションされた(2Dピクセルから)点雲の間の幾何学的および文脈的類似性を初めて学習する、後期融合戦略を採用している。
SAFNetは、様々なデータ完全性にまたがって、既存の最先端の核融合ベースのアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2021-07-04T09:28:18Z) - Residual Moment Loss for Medical Image Segmentation [56.72261489147506]
位置情報は,対象物体の多様体構造を捉えた深層学習モデルに有効であることが証明された。
既存のほとんどの手法は、ネットワークが学習するために、位置情報を暗黙的にエンコードする。
セグメント化対象の位置情報を明示的に埋め込むために,新しい損失関数,すなわち残差モーメント(RM)損失を提案する。
論文 参考訳(メタデータ) (2021-06-27T09:31:49Z) - S3Net: 3D LiDAR Sparse Semantic Segmentation Network [1.330528227599978]
S3NetはLiDARポイントクラウドセマンティックセグメンテーションのための新しい畳み込みニューラルネットワークである。
sparse intra-channel attention module (sintraam)とsparse inter-channel attention module (sinteram)で構成されるエンコーダ-デコーダバックボーンを採用する。
論文 参考訳(メタデータ) (2021-03-15T22:15:24Z) - SOSD-Net: Joint Semantic Object Segmentation and Depth Estimation from
Monocular images [94.36401543589523]
これら2つのタスクの幾何学的関係を利用するための意味的対象性の概念を紹介します。
次に, 対象性仮定に基づくセマンティックオブジェクト・深さ推定ネットワーク(SOSD-Net)を提案する。
私たちの知識を最大限に活用するために、SOSD-Netは同時単眼深度推定とセマンティックセグメンテーションのためのジオメトリ制約を利用する最初のネットワークです。
論文 参考訳(メタデータ) (2021-01-19T02:41:03Z) - TSGCNet: Discriminative Geometric Feature Learning with Two-Stream
GraphConvolutional Network for 3D Dental Model Segmentation [141.2690520327948]
2流グラフ畳み込みネットワーク(TSGCNet)を提案し、異なる幾何学的特性から多視点情報を学ぶ。
3次元口腔内スキャナーで得られた歯科モデルのリアルタイムデータセットを用いてTSGCNetの評価を行った。
論文 参考訳(メタデータ) (2020-12-26T08:02:56Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - JSENet: Joint Semantic Segmentation and Edge Detection Network for 3D
Point Clouds [37.703770427574476]
本稿では,初めて3次元意味的エッジ検出タスクに取り組む。
本稿では,2つのタスクを共同で行う2ストリーム完全畳み込みネットワークを提案する。
特に,両タスクの性能向上のために,領域情報とエッジ情報を明示的に関連付ける共同改良モジュールを設計する。
論文 参考訳(メタデータ) (2020-07-14T08:00:35Z) - Exploiting Multi-Layer Grid Maps for Surround-View Semantic Segmentation
of Sparse LiDAR Data [2.6876976011647145]
本稿では,LDARのみのセマンティックセグメンテーションの課題にアプローチするために,レーザレンジ測定をトップビューグリッドマップ表現に変換することを検討する。
我々はグリッドマップフレームワークを利用して関連情報を抽出し,多層グリッドマップを用いてそれらを表現している。
単層および多層アプローチを比較し、多層グリッドマップ入力の利点を実証する。
論文 参考訳(メタデータ) (2020-05-13T23:50:34Z) - Scan-based Semantic Segmentation of LiDAR Point Clouds: An Experimental
Study [2.6205925938720833]
最先端の手法では、深いニューラルネットワークを使用して、LiDARスキャンの各点のセマンティッククラスを予測する。
LiDAR測定を処理するための強力で効率的な方法は、2次元の画像のような投影を使うことである。
メモリの制約だけでなく、パフォーマンスの向上やランタイムの改善など、さまざまなテクニックを実証する。
論文 参考訳(メタデータ) (2020-04-06T11:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。