論文の概要: Multi-Resolution Graph Neural Network for Large-Scale Pointcloud
Segmentation
- arxiv url: http://arxiv.org/abs/2009.08924v1
- Date: Fri, 18 Sep 2020 16:42:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 03:15:55.658140
- Title: Multi-Resolution Graph Neural Network for Large-Scale Pointcloud
Segmentation
- Title(参考訳): 大規模ポイントクラウドセグメンテーションのためのマルチリゾリューショングラフニューラルネットワーク
- Authors: Liuyue Xie, Tomotake Furuhata, Kenji Shimada
- Abstract要約: 大規模なポイントクラウド上でセマンティックセグメンテーションを行うために,メモリ効率のよいエンドツーエンドグラフニューラルネットワークフレームワーク MuGNet を提案する。
我々は,11GBのGPUで最大45個の部屋スキャンを同時に処理できることを実証した。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a multi-resolution deep-learning architecture to
semantically segment dense large-scale pointclouds. Dense pointcloud data
require a computationally expensive feature encoding process before semantic
segmentation. Previous work has used different approaches to drastically
downsample from the original pointcloud so common computing hardware can be
utilized. While these approaches can relieve the computation burden to some
extent, they are still limited in their processing capability for multiple
scans. We present MuGNet, a memory-efficient, end-to-end graph neural network
framework to perform semantic segmentation on large-scale pointclouds. We
reduce the computation demand by utilizing a graph neural network on the
preformed pointcloud graphs and retain the precision of the segmentation with a
bidirectional network that fuses feature embedding at different resolutions.
Our framework has been validated on benchmark datasets including Stanford
Large-Scale 3D Indoor Spaces Dataset(S3DIS) and Virtual KITTI Dataset. We
demonstrate that our framework can process up to 45 room scans at once on a
single 11 GB GPU while still surpassing other graph-based solutions for
segmentation on S3DIS with an 88.5\% (+3\%) overall accuracy and 69.8\%
(+7.7\%) mIOU accuracy.
- Abstract(参考訳): 本稿では,高密度な大規模クラウドを意味的にセグメント化するためのマルチレゾリューションディープラーニングアーキテクチャを提案する。
高密度なpointcloudデータは、セマンティックセグメンテーションの前に計算コストの高い特徴エンコーディングプロセスを必要とする。
以前の作業では、従来のpointcloudとは大きく異なるアプローチを使用していたため、共通コンピューティングハードウェアを活用できた。
これらの手法は計算負荷をある程度軽減できるが、それでも複数のスキャンで処理能力に制限がある。
大規模なポイントクラウド上でセマンティックセグメンテーションを行うために,メモリ効率のよいエンドツーエンドグラフニューラルネットワークフレームワーク MuGNet を提案する。
我々は、プリフォームされたポイントクラウドグラフ上のグラフニューラルネットワークを利用して計算の需要を減らし、異なる解像度で特徴埋め込みを融合する双方向ネットワークによるセグメンテーションの精度を維持する。
我々のフレームワークは、Stanford Large-Scale 3D Indoor Spaces Dataset(S3DIS)やVirtual KITTI Datasetなどのベンチマークデータセットで検証されている。
我々は、S3DIS上のセグメント化のための他のグラフベースのソリューションを88.5\% (+3\%) の全体的な精度と69.8\% (+7.7\%) mIOU の精度で上回りながら、1つの11GB GPUで最大45個の部屋スキャンを同時に処理できることを実証した。
関連論文リスト
- Clustering based Point Cloud Representation Learning for 3D Analysis [80.88995099442374]
本稿では,ポイントクラウド分析のためのクラスタリングに基づく教師付き学習手法を提案する。
現在のデファクトでシーンワイドなトレーニングパラダイムとは異なり、我々のアルゴリズムは点埋め込み空間上でクラス内のクラスタリングを行う。
我々のアルゴリズムは、有名なポイントクラウドセグメンテーションデータセットの顕著な改善を示している。
論文 参考訳(メタデータ) (2023-07-27T03:42:12Z) - SATR: Zero-Shot Semantic Segmentation of 3D Shapes [74.08209893396271]
大規模オフザシェルフ2次元画像認識モデルを用いて3次元形状のゼロショットセマンティックセマンティックセマンティックセグメンテーションの課題について検討する。
本研究では、SATRアルゴリズムを開発し、ShapeNetPartと提案したFAUSTベンチマークを用いて評価する。
SATRは最先端のパフォーマンスを達成し、ベースラインアルゴリズムを平均mIoUの1.3%と4%で上回っている。
論文 参考訳(メタデータ) (2023-04-11T00:43:16Z) - Few-Shot 3D Point Cloud Semantic Segmentation via Stratified
Class-Specific Attention Based Transformer Network [22.9434434107516]
数ショットのクラウドセマンティックセマンティックセグメンテーションのための新しい多層トランスフォーマーネットワークを開発した。
提案手法は,既存の数ショットの3Dポイントクラウドセグメンテーションモデルよりも15%少ない推論時間で,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-28T00:27:54Z) - Learning task-specific features for 3D pointcloud graph creation [0.8629912408966145]
本稿では,3Dポイントクラウドからグラフを作成する方法を提案する。
提案手法は,入力された3Dポイントクラウドの変換上でk-NNを実行することに基づいている。
また, ストレス最小化に基づく正規化手法を導入し, ベースラインから学習グラフまでの距離を制御できるようにした: k-NN over xyz 空間。
論文 参考訳(メタデータ) (2022-09-02T11:13:02Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - Point-Unet: A Context-aware Point-based Neural Network for Volumetric
Segmentation [18.81644604997336]
本稿では,3次元点雲による深層学習の効率をボリュームセグメンテーションに組み込む新しい手法であるPoint-Unetを提案する。
私たちのキーとなるアイデアは、まず注意確率マップを学習することで、ボリュームに対する関心領域を予測することです。
異なるメトリクスに関する包括的なベンチマークでは、私たちのコンテキスト認識のPoint-UnetがSOTAのボクセルベースネットワークより優れていることが示されている。
論文 参考訳(メタデータ) (2022-03-16T22:02:08Z) - GSIP: Green Semantic Segmentation of Large-Scale Indoor Point Clouds [64.86292006892093]
GSIP (Green of Indoor Point clouds) は大規模屋内シーンポイント雲のセマンティックセグメンテーションの効率的なソリューションである。
GSIPには2つの新しいコンポーネントがある: 1) 更なる処理のためにポイントの適切なサブセットを選択するルームスタイルのデータ前処理方法、2) ポイントホップから拡張された新しい特徴抽出器。
実験の結果、GSIPはS3DISデータセットのセグメンテーション性能においてPointNetよりも優れていた。
論文 参考訳(メタデータ) (2021-09-24T09:26:53Z) - Learning Semantic Segmentation of Large-Scale Point Clouds with Random
Sampling [52.464516118826765]
我々はRandLA-Netを紹介した。RandLA-Netは、大規模ポイントクラウドのポイントごとの意味を推論する、効率的で軽量なニューラルネットワークアーキテクチャである。
我々のアプローチの鍵は、より複雑な点選択アプローチではなく、ランダムな点サンプリングを使用することである。
我々のRandLA-Netは、既存のアプローチよりも最大200倍高速な1回のパスで100万ポイントを処理できます。
論文 参考訳(メタデータ) (2021-07-06T05:08:34Z) - Scaling Graph Neural Networks with Approximate PageRank [64.92311737049054]
GNNにおける情報拡散の効率的な近似を利用したPPRGoモデルを提案する。
高速であることに加えて、PPRGoは本質的にスケーラブルであり、業界設定で見られるような大規模なデータセットに対して、自明に並列化することができる。
このグラフのすべてのノードに対するPPRGoのトレーニングとラベルの予測には1台のマシンで2分未満で、同じグラフ上の他のベースラインをはるかに上回ります。
論文 参考訳(メタデータ) (2020-07-03T09:30:07Z) - Learning to Segment 3D Point Clouds in 2D Image Space [20.119802932358333]
2次元画像空間に3次元点雲を効率よく投影する方法を示す。
U-Netのような従来の2D畳み込みニューラルネットワーク(CNN)はセグメンテーションに適用できる。
論文 参考訳(メタデータ) (2020-03-12T03:18:59Z) - Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud [3.04585143845864]
本稿では,LiDAR点雲から物体を検出するグラフニューラルネットワークを提案する。
我々は、その点雲を近辺の固定半径グラフに効率よくエンコードする。
Point-GNNでは,翻訳のばらつきを低減する自動登録機構を提案する。
論文 参考訳(メタデータ) (2020-03-02T23:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。