論文の概要: Small but Mighty: Enhancing 3D Point Clouds Semantic Segmentation with
U-Next Framework
- arxiv url: http://arxiv.org/abs/2304.00749v1
- Date: Mon, 3 Apr 2023 06:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 16:25:56.608334
- Title: Small but Mighty: Enhancing 3D Point Clouds Semantic Segmentation with
U-Next Framework
- Title(参考訳): 3DポイントクラウドのセマンティックセグメンテーションをU-Nextフレームワークで強化する
- Authors: Ziyin Zeng and Qingyong Hu and Zhong Xie and Jian Zhou and Yongyang Xu
- Abstract要約: 我々は,ポイントクラウドセマンティックセマンティックセグメンテーション用に設計された,小さいが強力なフレームワークであるU-Nextを提案する。
U-Nextは複数のU-Net$L1$コーデックをネストして密に配置し、セマンティックギャップを最小限に抑えることで構築します。
S3DIS、Tronto3D、SensatUrbanの3つの大規模ベンチマークで実施された大規模な実験は、提案したU-Nextアーキテクチャの優位性と有効性を示している。
- 参考スコア(独自算出の注目度): 7.9395601503353825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of semantic segmentation of large-scale 3D point clouds.
In recent years, significant research efforts have been directed toward local
feature aggregation, improved loss functions and sampling strategies. While the
fundamental framework of point cloud semantic segmentation has been largely
overlooked, with most existing approaches rely on the U-Net architecture by
default. In this paper, we propose U-Next, a small but mighty framework
designed for point cloud semantic segmentation. The key to this framework is to
learn multi-scale hierarchical representations from semantically similar
feature maps. Specifically, we build our U-Next by stacking multiple U-Net
$L^1$ codecs in a nested and densely arranged manner to minimize the semantic
gap, while simultaneously fusing the feature maps across scales to effectively
recover the fine-grained details. We also devised a multi-level deep
supervision mechanism to further smooth gradient propagation and facilitate
network optimization. Extensive experiments conducted on three large-scale
benchmarks including S3DIS, Toronto3D, and SensatUrban demonstrate the
superiority and the effectiveness of the proposed U-Next architecture. Our
U-Next architecture shows consistent and visible performance improvements
across different tasks and baseline models, indicating its great potential to
serve as a general framework for future research.
- Abstract(参考訳): 大規模3次元点雲のセマンティックセグメンテーションの問題点を考察する。
近年,局所的特徴集約,損失関数の改善,サンプリング戦略など,多くの研究が進められている。
ポイントクラウドセマンティックセグメンテーションの基本的なフレームワークはほとんど見過ごされているが、既存のアプローチのほとんどはデフォルトではU-Netアーキテクチャに依存している。
本稿では,ポイントクラウドセマンティクスセグメンテーション用に設計された,小型だが強力なフレームワークであるu-nextを提案する。
このフレームワークの鍵は、意味的に類似した特徴写像からマルチスケール階層表現を学ぶことである。
具体的には,複数のU-Net$L^1$コーデックをネストした高密度な方法で積み重ねることで,セマンティックギャップを最小限に抑えるとともに,機能マップをスケールにわたって融合させて,詳細な詳細を効果的に回収する。
また,よりスムーズな勾配伝搬とネットワーク最適化を実現するため,マルチレベル深層監視機構を考案した。
S3DIS、Tronto3D、SensatUrbanの3つの大規模ベンチマークで実施された大規模な実験は、提案したU-Nextアーキテクチャの優位性と有効性を示している。
我々のU-Nextアーキテクチャは、さまざまなタスクやベースラインモデルにまたがる一貫性と可視性の向上を示し、将来の研究の一般的なフレームワークとして機能する可能性を示している。
関連論文リスト
- PointeNet: A Lightweight Framework for Effective and Efficient Point
Cloud Analysis [28.54939134635978]
PointeNetは、ポイントクラウド分析に特化したネットワークである。
本手法は,分類/分割ヘッドとシームレスに統合したり,市販の3Dオブジェクト検出ネットワークに埋め込んだりすることで,柔軟性を示す。
ModelNet40、ScanObjectNN、ShapeNet KITTI、およびシーンレベルのデータセットKITTIを含むオブジェクトレベルのデータセットの実験は、ポイントクラウド分析における最先端メソッドよりもPointeNetの方が優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-12-20T03:34:48Z) - LISNeRF Mapping: LiDAR-based Implicit Mapping via Semantic Neural Fields for Large-Scale 3D Scenes [2.822816116516042]
大規模セマンティックマッピングは、屋外の自律エージェントが計画やナビゲーションといった高度なタスクを遂行するために不可欠である。
本稿では,提案するLiDAR測度のみでの暗黙的表現による大規模3次元意味再構築手法を提案する。
論文 参考訳(メタデータ) (2023-11-04T03:55:38Z) - PointHR: Exploring High-Resolution Architectures for 3D Point Cloud
Segmentation [77.44144260601182]
3Dポイントクラウドセグメンテーションのための高分解能アーキテクチャについて検討する。
我々は、特徴抽出のためのknnベースのシーケンス演算子と差分再サンプリング演算子を含む、PointHRという名前の統一パイプラインを提案する。
S3DISとScanNetV2データセットを用いて,これらのアーキテクチャを高密度点雲解析のために評価する。
論文 参考訳(メタデータ) (2023-10-11T09:29:17Z) - SeMLaPS: Real-time Semantic Mapping with Latent Prior Networks and
Quasi-Planar Segmentation [53.83313235792596]
本稿では,RGB-Dシーケンスからのリアルタイム意味マッピングのための新しい手法を提案する。
2DニューラルネットワークとSLAMシステムに基づく3Dネットワークと3D占有マッピングを組み合わせる。
本システムは,2D-3Dネットワークベースシステムにおいて,最先端のセマンティックマッピング品質を実現する。
論文 参考訳(メタデータ) (2023-06-28T22:36:44Z) - Few-Shot 3D Point Cloud Semantic Segmentation via Stratified
Class-Specific Attention Based Transformer Network [22.9434434107516]
数ショットのクラウドセマンティックセマンティックセグメンテーションのための新しい多層トランスフォーマーネットワークを開発した。
提案手法は,既存の数ショットの3Dポイントクラウドセグメンテーションモデルよりも15%少ない推論時間で,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-28T00:27:54Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - FatNet: A Feature-attentive Network for 3D Point Cloud Processing [1.502579291513768]
本稿では,グローバルポイントベースの機能とエッジベースの機能を組み合わせた,新たな機能指向ニューラルネットワーク層であるfat layerを提案する。
当社のアーキテクチャは,ModelNet40データセットで示すように,ポイントクラウド分類のタスクにおける最先端の成果を達成する。
論文 参考訳(メタデータ) (2021-04-07T23:13:56Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Campus3D: A Photogrammetry Point Cloud Benchmark for Hierarchical
Understanding of Outdoor Scene [76.4183572058063]
複数の屋外シーン理解タスクに対して,リッチな注釈付き3Dポイントクラウドデータセットを提案する。
データセットは階層型ラベルとインスタンスベースのラベルの両方でポイントワイズアノテートされている。
本稿では,3次元点雲分割のための階層的学習問題を定式化し,様々な階層間の整合性を評価することを提案する。
論文 参考訳(メタデータ) (2020-08-11T19:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。