論文の概要: PBP-Net: Point Projection and Back-Projection Network for 3D Point Cloud
Segmentation
- arxiv url: http://arxiv.org/abs/2011.00988v1
- Date: Mon, 2 Nov 2020 14:14:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:24:00.422971
- Title: PBP-Net: Point Projection and Back-Projection Network for 3D Point Cloud
Segmentation
- Title(参考訳): PBP-Net:3Dポイントクラウドセグメンテーションのためのポイントプロジェクションとバックプロジェクションネットワーク
- Authors: JuYoung Yang, Chanho Lee, Pyunghwan Ahn, Haeil Lee, Eojindl Yi and
Junmo Kim
- Abstract要約: 本稿では,3次元クラウドセグメンテーションのための簡易かつ効率的なPBP-Netアーキテクチャを提案する。
2次元CNNを用いた効果的な3次元特徴抽出法を示すため,最近の手法との比較を含む様々な実験を行った。
- 参考スコア(独自算出の注目度): 24.375383511061955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Following considerable development in 3D scanning technologies, many studies
have recently been proposed with various approaches for 3D vision tasks,
including some methods that utilize 2D convolutional neural networks (CNNs).
However, even though 2D CNNs have achieved high performance in many 2D vision
tasks, existing works have not effectively applied them onto 3D vision tasks.
In particular, segmentation has not been well studied because of the difficulty
of dense prediction for each point, which requires rich feature representation.
In this paper, we propose a simple and efficient architecture named point
projection and back-projection network (PBP-Net), which leverages 2D CNNs for
the 3D point cloud segmentation. 3 modules are introduced, each of which
projects 3D point cloud onto 2D planes, extracts features using a 2D CNN
backbone, and back-projects features onto the original 3D point cloud. To
demonstrate effective 3D feature extraction using 2D CNN, we perform various
experiments including comparison to recent methods. We analyze the proposed
modules through ablation studies and perform experiments on object part
segmentation (ShapeNet-Part dataset) and indoor scene semantic segmentation
(S3DIS dataset). The experimental results show that proposed PBP-Net achieves
comparable performance to existing state-of-the-art methods.
- Abstract(参考訳): 3Dスキャン技術の発展に伴い、近年では2D畳み込みニューラルネットワーク(CNN)を利用する方法など、様々な3D視覚タスクのアプローチが提案されている。
しかしながら、2d cnnは多くの2dビジョンタスクで高いパフォーマンスを達成しているが、既存の作業は3dビジョンタスクに効果的に適用していない。
特にセグメンテーションは、リッチな特徴表現を必要とする各点の密度予測が困難であるため、十分に研究されていない。
本稿では,3dポイントクラウドセグメンテーションに2d cnnを利用する,pbp-net(point projection and back-projection network)という簡易かつ効率的なアーキテクチャを提案する。
それぞれが3dポイントクラウドを2dプレーンに配置し、2dcnnバックボーンを使用して機能を抽出し、元の3dポイントクラウドにバックプロジェクト機能を組み込む。
2次元cnnを用いた効果的な3次元特徴抽出を行うため,最近の手法との比較を含む様々な実験を行った。
提案するモジュールをアブレーション解析し,オブジェクト部分セグメンテーション(shapenet-part dataset)と室内シーン意味セグメンテーション(s3dis dataset)の実験を行った。
実験の結果,提案したPBP-Netは既存の最先端手法に匹敵する性能を示した。
関連論文リスト
- Dynamic 3D Point Cloud Sequences as 2D Videos [81.46246338686478]
3Dポイントクラウドシーケンスは、現実世界の環境における最も一般的で実用的な表現の1つとして機能する。
textitStructured Point Cloud Videos (SPCV) と呼ばれる新しい汎用表現を提案する。
SPCVは点雲列を空間的滑らかさと時間的一貫性を持つ2Dビデオとして再編成し、画素値は点の3D座標に対応する。
論文 参考訳(メタデータ) (2024-03-02T08:18:57Z) - Leveraging Large-Scale Pretrained Vision Foundation Models for
Label-Efficient 3D Point Cloud Segmentation [67.07112533415116]
本稿では3Dポイントクラウドセグメンテーションタスクに様々な基礎モデルを適用する新しいフレームワークを提案する。
我々のアプローチでは、異なる大きな視覚モデルを用いて2次元セマンティックマスクの初期予測を行う。
本研究では,ロバストな3Dセマンティックな擬似ラベルを生成するために,投票による全ての結果を効果的に組み合わせたセマンティックなラベル融合戦略を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:41:15Z) - Multi-View Representation is What You Need for Point-Cloud Pre-Training [22.55455166875263]
本稿では,事前学習した2次元ネットワークを利用して3次元表現を学習するポイントクラウド事前学習手法を提案する。
我々は,新しい2次元知識伝達損失の助けを借りて,3次元特徴抽出ネットワークを訓練する。
実験結果から,事前学習したモデルを様々な下流タスクに転送できることが判明した。
論文 参考訳(メタデータ) (2023-06-05T03:14:54Z) - Voint Cloud: Multi-View Point Cloud Representation for 3D Understanding [80.04281842702294]
本稿では,複数の視点から抽出した特徴の集合として,各3次元点を表す多視点クラウド(Voint Cloud)の概念を紹介する。
この新しい3次元Vointクラウド表現は、3Dポイントクラウド表現のコンパクト性と、マルチビュー表現の自然なビュー認識性を組み合わせたものである。
理論的に確立された機能を持つVointニューラルネットワーク(VointNet)をデプロイし,Voint空間の表現を学習する。
論文 参考訳(メタデータ) (2021-11-30T13:08:19Z) - Cylindrical and Asymmetrical 3D Convolution Networks for LiDAR-based
Perception [122.53774221136193]
運転時のLiDARに基づく認識のための最先端の手法は、しばしば点雲を2D空間に投影し、2D畳み込みによって処理する。
自然な対策として、3Dボクセル化と3D畳み込みネットワークを利用する方法がある。
本研究では,3次元幾何学的パターンを探索するために,円筒状分割と非対称な3次元畳み込みネットワークを設計する,屋外LiDARセグメンテーションのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-12T06:25:11Z) - Multi-Modality Task Cascade for 3D Object Detection [22.131228757850373]
多くの手法は2つのモデルを個別に訓練し、単純な特徴結合を用いて3Dセンサーデータを表現している。
本稿では,3次元ボックスの提案を利用して2次元セグメンテーション予測を改善する新しいマルチモードタスクカスケードネットワーク(MTC-RCNN)を提案する。
2段階の3次元モジュール間の2次元ネットワークを組み込むことで,2次元および3次元のタスク性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-07-08T17:55:01Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z) - Pointwise Attention-Based Atrous Convolutional Neural Networks [15.499267533387039]
多数の点を効率的に扱うために,注目度に基づくアトラス畳み込みニューラルネットワークアーキテクチャを提案する。
提案モデルは,3次元セマンティックセグメンテーションタスクにおいて,最も重要な2つの3Dポイントクラウドデータセット上で評価されている。
精度の面では最先端モデルと比較して妥当な性能を達成し、パラメータの数ははるかに少ない。
論文 参考訳(メタデータ) (2019-12-27T13:12:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。