論文の概要: Exploiting Local Geometry for Feature and Graph Construction for Better
3D Point Cloud Processing with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2103.15226v1
- Date: Sun, 28 Mar 2021 21:34:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 07:29:19.304723
- Title: Exploiting Local Geometry for Feature and Graph Construction for Better
3D Point Cloud Processing with Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークを用いた3Dポイントクラウド処理のための特徴とグラフ構築のための局所幾何学の展開
- Authors: Siddharth Srivastava, Gaurav Sharma
- Abstract要約: グラフニューラルネットワークの一般枠組みにおける点表現と局所近傍グラフ構築の改善を提案する。
提案されたネットワークは、トレーニングの収束を高速化する。
分類のための40%のより少ないエポック。
- 参考スコア(独自算出の注目度): 22.936590869919865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose simple yet effective improvements in point representations and
local neighborhood graph construction within the general framework of graph
neural networks (GNNs) for 3D point cloud processing. As a first contribution,
we propose to augment the vertex representations with important local geometric
information of the points, followed by nonlinear projection using a MLP. As a
second contribution, we propose to improve the graph construction for GNNs for
3D point clouds. The existing methods work with a k-nn based approach for
constructing the local neighborhood graph. We argue that it might lead to
reduction in coverage in case of dense sampling by sensors in some regions of
the scene. The proposed methods aims to counter such problems and improve
coverage in such cases. As the traditional GNNs were designed to work with
general graphs, where vertices may have no geometric interpretations, we see
both our proposals as augmenting the general graphs to incorporate the
geometric nature of 3D point clouds. While being simple, we demonstrate with
multiple challenging benchmarks, with relatively clean CAD models, as well as
with real world noisy scans, that the proposed method achieves state of the art
results on benchmarks for 3D classification (ModelNet40) , part segmentation
(ShapeNet) and semantic segmentation (Stanford 3D Indoor Scenes Dataset). We
also show that the proposed network achieves faster training convergence, i.e.
~40% less epochs for classification. The project details are available at
https://siddharthsrivastava.github.io/publication/geomgcnn/
- Abstract(参考訳): 本稿では,3次元クラウド処理のためのグラフニューラルネットワーク(GNN)の汎用フレームワークにおいて,点表現と局所グラフ構築の簡易かつ効果的な改善を提案する。
まず,点の局所的幾何的な重要な情報を用いて頂点表現を拡大し,次にMLPを用いた非線形投影を提案する。
第2の貢献として,GNNの3次元点群に対するグラフ構築の改善を提案する。
既存の手法では、k-nn に基づく局所近傍グラフの構築を行う。
現場の一部地域では,センサによる高密度サンプリングを行う場合,カバー範囲が減少する可能性があると論じる。
提案手法は,このような問題に対処し,適用範囲を改善することを目的としている。
従来のGNNは、頂点が幾何学的解釈を持たないような一般グラフを扱うように設計されているため、この2つの提案は3次元点雲の幾何学的性質を取り入れた一般グラフを増大させるものである。
単純ではあるが,実世界のノイズスキャンと同様に比較的クリーンなcadモデルを用いた複数の難解なベンチマークを用いて,提案手法が3d分類(modelnet40),部分セグメンテーション(shapenet),意味セグメンテーション(stanford 3d indoor scene dataset)のベンチマークにおいて,最先端の技術結果が得られることを示す。
また,提案ネットワークがより高速な学習収束を実現することを示す。
~40%少なかった。
プロジェクトの詳細はhttps://siddharthsrivastava.github.io/publication/geomgcnn/で確認できる。
関連論文リスト
- Geometrically-driven Aggregation for Zero-shot 3D Point Cloud Understanding [11.416392706435415]
ゼロショット3Dポイントクラウド理解は2Dビジョンランゲージモデル(VLM)によって達成できる
既存の戦略は、ヴィジュアル・ランゲージ・モデル(Vision-Language Model)をレンダリングまたはキャプチャされた2Dピクセルから3Dポイントにマッピングし、固有かつ表現可能な雲の幾何学構造を見渡す。
本稿では, 点雲の3次元幾何学的構造を利用して, 移動したビジョン・ランゲージモデルの品質を向上させるための, 初となるトレーニングフリーアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2023-12-04T12:30:07Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Learning task-specific features for 3D pointcloud graph creation [0.8629912408966145]
本稿では,3Dポイントクラウドからグラフを作成する方法を提案する。
提案手法は,入力された3Dポイントクラウドの変換上でk-NNを実行することに基づいている。
また, ストレス最小化に基づく正規化手法を導入し, ベースラインから学習グラフまでの距離を制御できるようにした: k-NN over xyz 空間。
論文 参考訳(メタデータ) (2022-09-02T11:13:02Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z) - Dense Graph Convolutional Neural Networks on 3D Meshes for 3D Object
Segmentation and Classification [0.0]
本稿では3次元メッシュ上でのグラフ畳み込みニューラルネットワーク(GCN)の設計について述べる。
メッシュの顔を基本処理単位とし、各ノードが顔に対応するグラフとして3Dメッシュを表現する。
論文 参考訳(メタデータ) (2021-06-30T02:17:16Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - Mix Dimension in Poincar\'{e} Geometry for 3D Skeleton-based Action
Recognition [57.98278794950759]
グラフ畳み込みネットワーク(GCN)はすでに、不規則なデータをモデル化する強力な能力を実証している。
本稿では,ポアンカー幾何学を用いて定義した空間時空間GCNアーキテクチャを提案する。
提案手法を,現在最大規模の2つの3次元データセット上で評価する。
論文 参考訳(メタデータ) (2020-07-30T18:23:18Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - Learning to Segment 3D Point Clouds in 2D Image Space [20.119802932358333]
2次元画像空間に3次元点雲を効率よく投影する方法を示す。
U-Netのような従来の2D畳み込みニューラルネットワーク(CNN)はセグメンテーションに適用できる。
論文 参考訳(メタデータ) (2020-03-12T03:18:59Z) - Point-GNN: Graph Neural Network for 3D Object Detection in a Point Cloud [3.04585143845864]
本稿では,LiDAR点雲から物体を検出するグラフニューラルネットワークを提案する。
我々は、その点雲を近辺の固定半径グラフに効率よくエンコードする。
Point-GNNでは,翻訳のばらつきを低減する自動登録機構を提案する。
論文 参考訳(メタデータ) (2020-03-02T23:44:12Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。