論文の概要: PolyGNN: Polyhedron-based Graph Neural Network for 3D Building Reconstruction from Point Clouds
- arxiv url: http://arxiv.org/abs/2307.08636v2
- Date: Fri, 11 Oct 2024 21:33:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-15 15:02:37.632974
- Title: PolyGNN: Polyhedron-based Graph Neural Network for 3D Building Reconstruction from Point Clouds
- Title(参考訳): PolyGNN: 点雲からの3次元建物再構築のためのポリヘドロングラフニューラルネットワーク
- Authors: Zhaiyu Chen, Yilei Shi, Liangliang Nan, Zhitong Xiong, Xiao Xiang Zhu,
- Abstract要約: PolyGNNは、再構成ポイントクラウドを構築するためのグラフニューラルネットワークである。
多面体分解によって得られる原始体を組み立てることを学ぶ。
都市間および実世界の点雲上での移動可能性解析を行う。
- 参考スコア(独自算出の注目度): 22.18061879431175
- License:
- Abstract: We present PolyGNN, a polyhedron-based graph neural network for 3D building reconstruction from point clouds. PolyGNN learns to assemble primitives obtained by polyhedral decomposition via graph node classification, achieving a watertight and compact reconstruction. To effectively represent arbitrary-shaped polyhedra in the neural network, we propose a skeleton-based sampling strategy to generate polyhedron-wise queries. These queries are then incorporated with inter-polyhedron adjacency to enhance the classification. PolyGNN is end-to-end optimizable and is designed to accommodate variable-size input points, polyhedra, and queries with an index-driven batching technique. To address the abstraction gap between existing city-building models and the underlying instances, and provide a fair evaluation of the proposed method, we develop our method on a large-scale synthetic dataset with well-defined ground truths of polyhedral labels. We further conduct a transferability analysis across cities and on real-world point clouds. Both qualitative and quantitative results demonstrate the effectiveness of our method, particularly its efficiency for large-scale reconstructions. The source code and data are available at https://github.com/chenzhaiyu/polygnn.
- Abstract(参考訳): 点雲からの3次元再構築のための多面体グラフニューラルネットワークPolyGNNを提案する。
PolyGNNは、グラフノードの分類を通じてポリヘドラル分解によって得られたプリミティブを組み立てることを学び、水密でコンパクトな再構成を実現する。
ニューラルネットワークにおける任意の形状のポリヘドラを効果的に表現するために,ポリヘドロンクエリを生成するスケルトンに基づくサンプリング戦略を提案する。
これらのクエリは、分類を強化するために、ポリヘドロン間の隣接に組み込まれる。
PolyGNNはエンドツーエンドの最適化が可能で、可変サイズの入力ポイント、ポリヘドラ、クエリにインデックス駆動バッチ技術で対応できるように設計されている。
既存の都市構築モデルと基礎となる事例の抽象的ギャップに対処し,提案手法の公正な評価を行うため,多面体ラベルの基底真理を適切に定義した大規模合成データセット上で,本手法を開発した。
さらに,都市間および実世界の点雲上での移動可能性解析を実施している。
定性的かつ定量的な結果は,本手法の有効性,特に大規模再建における有効性を示すものである。
ソースコードとデータはhttps://github.com/chenzhaiyu/polygnn.comで公開されている。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Learning Geometric Invariant Features for Classification of Vector Polygons with Graph Message-passing Neural Network [3.804240190982697]
本稿では,ポリゴンの形状分類のための幾何学的不変特徴を学習するために,新しいグラフメッセージパッシングニューラルネットワーク(PolyMP)を提案する。
提案したグラフベースPolyMPネットワークは,ポリゴンの幾何変換に不変な表現幾何学的特徴の学習を可能にする。
論文 参考訳(メタデータ) (2024-07-05T08:19:36Z) - Towards General-Purpose Representation Learning of Polygonal Geometries [62.34832826705641]
我々は,多角形形状を埋め込み空間に符号化できる汎用多角形符号化モデルを開発した。
1)MNISTに基づく形状分類,2)DBSR-46KとDBSR-cplx46Kという2つの新しいデータセットに基づく空間関係予測を行う。
以上の結果から,NUFTspec と ResNet1D は,既存のベースラインよりも有意なマージンで優れていた。
論文 参考訳(メタデータ) (2022-09-29T15:59:23Z) - PolyWorld: Polygonal Building Extraction with Graph Neural Networks in
Satellite Images [10.661430927191205]
本稿では、画像から直接建物頂点を抽出し、それらを正しく接続して正確なポリゴンを生成するニューラルネットワークであるPolyWorldを紹介する。
PolyWorldは、ポリゴン化の構築における最先端を著しく上回る。
論文 参考訳(メタデータ) (2021-11-30T15:23:17Z) - PolyNet: Polynomial Neural Network for 3D Shape Recognition with
PolyShape Representation [51.147664305955495]
3次元形状表現とその処理は3次元形状認識に大きな影響を及ぼす。
我々は、ディープニューラルネットワークに基づく手法(PolyNet)と特定のポリゴン表現(PolyShape)を提案する。
本研究では,3次元形状分類と検索作業におけるPolyNetの長所と長所を実証した。
論文 参考訳(メタデータ) (2021-10-15T06:45:59Z) - Learnable Triangulation for Deep Learning-based 3D Reconstruction of
Objects of Arbitrary Topology from Single RGB Images [12.693545159861857]
モノクロ画像から3次元物体を再構成する深層強化学習手法を提案する。
提案手法は, 視覚的品質, 再構成精度, 計算時間において, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2021-09-24T09:44:22Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z) - Learning Local Neighboring Structure for Robust 3D Shape Representation [143.15904669246697]
3Dメッシュの表現学習は多くのコンピュータビジョンやグラフィックスアプリケーションにおいて重要である。
局所構造認識型異方性畳み込み操作(LSA-Conv)を提案する。
本モデルでは,3次元形状復元において最先端の手法に比べて顕著な改善が得られた。
論文 参考訳(メタデータ) (2020-04-21T13:40:03Z) - PUGeo-Net: A Geometry-centric Network for 3D Point Cloud Upsampling [103.09504572409449]
PUGeo-Netと呼ばれる新しいディープニューラルネットワークを用いた一様高密度点雲を生成する手法を提案する。
その幾何学中心の性質のおかげで、PUGeo-Netはシャープな特徴を持つCADモデルとリッチな幾何学的詳細を持つスキャンされたモデルの両方でうまく機能する。
論文 参考訳(メタデータ) (2020-02-24T14:13:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。