論文の概要: SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering
- arxiv url: http://arxiv.org/abs/2108.00454v1
- Date: Sun, 1 Aug 2021 13:26:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 15:17:56.542255
- Title: SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering
- Title(参考訳): SSPU-Net: 微分レンダリングによる自己監視ポイントクラウドアップサンプリング
- Authors: Yifan Zhao, Le Hui, Jin Xie
- Abstract要約: 地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
- 参考スコア(独自算出の注目度): 21.563862632172363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point clouds obtained from 3D sensors are usually sparse. Existing methods
mainly focus on upsampling sparse point clouds in a supervised manner by using
dense ground truth point clouds. In this paper, we propose a self-supervised
point cloud upsampling network (SSPU-Net) to generate dense point clouds
without using ground truth. To achieve this, we exploit the consistency between
the input sparse point cloud and generated dense point cloud for the shapes and
rendered images. Specifically, we first propose a neighbor expansion unit (NEU)
to upsample the sparse point clouds, where the local geometric structures of
the sparse point clouds are exploited to learn weights for point interpolation.
Then, we develop a differentiable point cloud rendering unit (DRU) as an
end-to-end module in our network to render the point cloud into multi-view
images. Finally, we formulate a shape-consistent loss and an image-consistent
loss to train the network so that the shapes of the sparse and dense point
clouds are as consistent as possible. Extensive results on the CAD and scanned
datasets demonstrate that our method can achieve impressive results in a
self-supervised manner. Code is available at https://github.com/Avlon/SSPU-Net.
- Abstract(参考訳): 3dセンサーから得られる点雲は通常は希薄である。
既存の手法は主に、密度の高い真理点雲を用いて監督された方法でスパース点雲をサンプリングすることに焦点を当てている。
本稿では,地中真理を使わずに高密度の点雲を生成する自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
そこで我々は,入力スパース点雲と高密度点雲との整合性を利用して形状と描画画像を生成する。
具体的には、まず、スパース点雲の局所的な幾何学的構造を利用して点補間のための重みを学習する、スパース点雲を増幅する隣の膨張ユニット(NEU)を提案する。
そこで我々は,DRU(Dariable Point Cloud rendering Unit)をネットワークのエンドツーエンドモジュールとして開発し,ポイントクラウドをマルチビュー画像にレンダリングする。
最後に, 形状不連続損失と画像不一致損失を定式化してネットワークをトレーニングし, スパースと高密度点雲の形状が可能な限り一貫するようにした。
CADおよびスキャンしたデータセットの大規模な結果から,本手法が自己教師型で優れた結果を得られることを示す。
コードはhttps://github.com/Avlon/SSPU-Netで入手できる。
関連論文リスト
- GPN: Generative Point-based NeRF [0.65268245109828]
我々は,部分的な雲を復元し,修復するために生成点ベースのNeRF (GPN) を提案する。
補修された点雲は、高空間分解能で撮像された画像との多視点整合を達成することができる。
論文 参考訳(メタデータ) (2024-04-12T08:14:17Z) - Learning Continuous Implicit Field with Local Distance Indicator for
Arbitrary-Scale Point Cloud Upsampling [55.05706827963042]
点雲アップサンプリングは、疎点雲から密度が高く均一に分散した点集合を生成することを目的としている。
従来のメソッドは通常、スパースポイントクラウドをいくつかのローカルパッチ、アップサンプルパッチポイント、すべてのアップサンプルパッチにマージする。
そこで本研究では,点雲のアップサンプリングのために,局所的な先行者によって導かれる符号のない距離場を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-12-23T01:52:14Z) - PRED: Pre-training via Semantic Rendering on LiDAR Point Clouds [18.840000859663153]
本稿では,屋外点雲のための画像支援事前学習フレームワークPreDを提案する。
我々のフレームワークの主な構成要素は、Birds-Eye-View (BEV) 機能マップ条件付きセマンティックレンダリングである。
我々は、高マスキング比のポイントワイドマスクを組み込むことにより、モデルの性能をさらに向上させる。
論文 参考訳(メタデータ) (2023-11-08T07:26:09Z) - Learning Neural Volumetric Field for Point Cloud Geometry Compression [13.691147541041804]
我々は、ニューラルネットワークを学習することで、与えられた点雲の幾何学をコーディングすることを提案する。
空間全体を小さな立方体に分割し,各空でない立方体をニューラルネットワークと入力潜時符号で表現する。
ネットワークは、空間的および時間的冗長性を利用するために、1つのフレームまたは複数のフレームで全ての立方体間で共有される。
論文 参考訳(メタデータ) (2022-12-11T19:55:24Z) - GRASP-Net: Geometric Residual Analysis and Synthesis for Point Cloud
Compression [16.98171403698783]
損失点クラウド幾何圧縮のための深層学習を用いた異種アプローチを提案する。
具体的には、粗い点雲上に存在する不規則な特徴に局所的詳細を変換するために、点ベースネットワークを適用する。
論文 参考訳(メタデータ) (2022-09-09T17:09:02Z) - PointAttN: You Only Need Attention for Point Cloud Completion [89.88766317412052]
ポイント・クラウド・コンプリート(Point cloud completion)とは、部分的な3次元ポイント・クラウドから3次元の形状を完成させることである。
そこで我々は,kNNを除去するために,ポイントクラウドをポイント単位に処理する新しいニューラルネットワークを提案する。
提案するフレームワークであるPointAttNはシンプルで簡潔で効果的であり、3次元形状の構造情報を正確に捉えることができる。
論文 参考訳(メタデータ) (2022-03-16T09:20:01Z) - Unsupervised Point Cloud Representation Learning with Deep Neural
Networks: A Survey [104.71816962689296]
大規模クラウドラベリングの制約により,教師なしのポイントクラウド表現学習が注目されている。
本稿では、ディープニューラルネットワークを用いた教師なしポイントクラウド表現学習の総合的なレビューを提供する。
論文 参考訳(メタデータ) (2022-02-28T07:46:05Z) - A Conditional Point Diffusion-Refinement Paradigm for 3D Point Cloud
Completion [69.32451612060214]
実スキャンされた3Dポイントクラウドはしばしば不完全であり、下流アプリケーションのために完全なポイントクラウドを復元することが重要である。
ほとんどの既存のポイントクラウド補完方法は、トレーニングにチャンファー距離(CD)損失を使用する。
本稿では,点雲完了のためのPDR(Point Diffusion-Refinement)パラダイムを提案する。
論文 参考訳(メタデータ) (2021-12-07T06:59:06Z) - "Zero Shot" Point Cloud Upsampling [4.737519767218666]
本稿では,Zero Shot" Point Cloud Upsampling (ZSPU) と呼ばれる点群を総括的に監視する手法を提案する。
我々のアプローチは、自己学習とテストの両方のフェーズにパッチを当てることなく、特定のポイントクラウドによって提供される内部情報のみに基づいています。
ZSPUは、複雑な局所的な詳細や高い曲率を持つ形状の質的な結果を得る。
論文 参考訳(メタデータ) (2021-06-25T17:06:18Z) - Self-Sampling for Neural Point Cloud Consolidation [83.31236364265403]
本稿では,入力点クラウドのみから学習するニューラルポイントクラウドの統合技術を紹介する。
入力ポイントクラウドを、ディープニューラルネットワークのトレーニングに使用するグローバルサブセットで、繰り返し自己サンプルします。
様々な形状から点集合を集約する能力を示すとともに,出力器やノイズを除去する能力を示す。
論文 参考訳(メタデータ) (2020-08-14T17:16:02Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。