論文の概要: 3D-MiniNet: Learning a 2D Representation from Point Clouds for Fast and
Efficient 3D LIDAR Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2002.10893v5
- Date: Tue, 27 Apr 2021 15:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:57:26.387742
- Title: 3D-MiniNet: Learning a 2D Representation from Point Clouds for Fast and
Efficient 3D LIDAR Semantic Segmentation
- Title(参考訳): 3D-MiniNet: 高速かつ効率的な3D LIDARセマンティックセグメンテーションのためのポイントクラウドからの2次元表現学習
- Authors: I\~nigo Alonso, Luis Riazuelo, Luis Montesano, Ana C. Murillo
- Abstract要約: 3D-MiniNetは、3Dと2Dの学習層を組み合わせたLIDARセマンティックセグメンテーションの新しいアプローチである。
まず,3次元データから局所的およびグローバル的情報を抽出する新しいプロジェクションにより,原点から2次元表現を学習する。
これらの2Dセマンティックラベルは、3D空間に再プロジェクションされ、後処理モジュールを通じて拡張される。
- 参考スコア(独自算出の注目度): 9.581605678437032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LIDAR semantic segmentation, which assigns a semantic label to each 3D point
measured by the LIDAR, is becoming an essential task for many robotic
applications such as autonomous driving. Fast and efficient semantic
segmentation methods are needed to match the strong computational and temporal
restrictions of many of these real-world applications.
This work presents 3D-MiniNet, a novel approach for LIDAR semantic
segmentation that combines 3D and 2D learning layers. It first learns a 2D
representation from the raw points through a novel projection which extracts
local and global information from the 3D data. This representation is fed to an
efficient 2D Fully Convolutional Neural Network (FCNN) that produces a 2D
semantic segmentation. These 2D semantic labels are re-projected back to the 3D
space and enhanced through a post-processing module. The main novelty in our
strategy relies on the projection learning module. Our detailed ablation study
shows how each component contributes to the final performance of 3D-MiniNet. We
validate our approach on well known public benchmarks (SemanticKITTI and
KITTI), where 3D-MiniNet gets state-of-the-art results while being faster and
more parameter-efficient than previous methods.
- Abstract(参考訳): LIDARによって測定された各3Dポイントにセマンティックラベルを割り当てるLIDARセマンティックセグメンテーションは、自律運転のような多くのロボットアプリケーションにとって必須のタスクとなっている。
これらの実世界の多くのアプリケーションの強い計算と時間的制約に適合するために、高速で効率的なセマンティックセグメンテーション法が必要である。
この3D-MiniNetは3Dと2Dの学習層を組み合わせたLIDARセマンティックセマンティックセグメンテーションの新しいアプローチである。
まず,3次元データから局所的およびグローバル的情報を抽出する新しいプロジェクションにより,原点から2次元表現を学習する。
この表現は、2Dセマンティックセグメンテーションを生成する効率的な2D完全畳み込みニューラルネットワーク(FCNN)に供給される。
これらの2Dセマンティックラベルは、3D空間に再プロジェクションされ、後処理モジュールを通じて拡張される。
私たちの戦略の目新しさは、プロジェクション学習モジュールに依存しています。
我々は3D-MiniNetの最終性能に各コンポーネントがどのように貢献するかを詳細に検討した。
我々は,3D-MiniNetが従来の手法よりも高速でパラメータ効率が高い3D-MiniNetの手法を,よく知られたベンチマーク(SemanticKITTIとKITTI)で検証する。
関連論文リスト
- ALSTER: A Local Spatio-Temporal Expert for Online 3D Semantic
Reconstruction [62.599588577671796]
本稿では,RGB-Dフレームのストリームから3次元セマンティックマップを段階的に再構成するオンライン3次元セマンティックセマンティックセマンティクス手法を提案する。
オフラインの手法とは異なり、ロボット工学や混合現実のようなリアルタイムな制約のあるシナリオに直接適用できます。
論文 参考訳(メタデータ) (2023-11-29T20:30:18Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance
Fields [73.97131748433212]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - SSR-2D: Semantic 3D Scene Reconstruction from 2D Images [54.46126685716471]
本研究では,3Dアノテーションを使わずにセマンティックなシーン再構成を行う中心的な3Dシーンモデリングタスクについて検討する。
提案手法の鍵となる考え方は,不完全な3次元再構成と対応するRGB-D画像の両方を用いたトレーニング可能なモデルの設計である。
本研究では,2つの大規模ベンチマークデータセットであるMatterPort3DとScanNetに対して,セマンティックシーン補完の最先端性能を実現する。
論文 参考訳(メタデータ) (2023-02-07T17:47:52Z) - LWSIS: LiDAR-guided Weakly Supervised Instance Segmentation for
Autonomous Driving [34.119642131912485]
より巧妙なフレームワークであるLiDAR誘導弱監視インスタンス(LWSIS)を提示する。
LWSISは市販の3Dデータ、すなわちポイントクラウドと3Dボックスを2Dイメージインスタンスセグメンテーションモデルをトレーニングするための自然な弱い監督手段として使用している。
我々のLWSISは、訓練中のマルチモーダルデータの補完情報を利用するだけでなく、密集した2Dマスクのコストを大幅に削減します。
論文 参考訳(メタデータ) (2022-12-07T08:08:01Z) - MvDeCor: Multi-view Dense Correspondence Learning for Fine-grained 3D
Segmentation [91.6658845016214]
そこで本研究では,2次元領域における自己教師型手法を,微細な3次元形状分割作業に活用することを提案する。
複数のビューから3次元形状を描画し、コントラスト学習フレームワーク内に密接な対応学習タスクを設置する。
その結果、学習された2次元表現はビュー不変であり、幾何学的に一貫性がある。
論文 参考訳(メタデータ) (2022-08-18T00:48:15Z) - MNet: Rethinking 2D/3D Networks for Anisotropic Medical Image
Segmentation [13.432274819028505]
学習を通して空間表現間のバランスをとるために,新しいメッシュネットワーク(MNet)を提案する。
総合的な実験は4つのパブリックデータセット(CT&MR)で実施される
論文 参考訳(メタデータ) (2022-05-10T12:39:08Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Multi-Modality Task Cascade for 3D Object Detection [22.131228757850373]
多くの手法は2つのモデルを個別に訓練し、単純な特徴結合を用いて3Dセンサーデータを表現している。
本稿では,3次元ボックスの提案を利用して2次元セグメンテーション予測を改善する新しいマルチモードタスクカスケードネットワーク(MTC-RCNN)を提案する。
2段階の3次元モジュール間の2次元ネットワークを組み込むことで,2次元および3次元のタスク性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-08T17:55:01Z) - 3D Guided Weakly Supervised Semantic Segmentation [27.269847900950943]
本稿では,スパース境界ボックスラベルを利用可能な3次元情報に組み込むことにより,弱教師付き2次元セマンティックセマンティックセマンティックセマンティクスモデルを提案する。
手動で2D-3Dセマンティックス(2D-3D-S)データセットのサブセットにバウンディングボックスをラベル付けし、2D-3D推論モジュールを導入し、正確なピクセルワイドセグメント提案マスクを生成する。
論文 参考訳(メタデータ) (2020-12-01T03:34:15Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。