論文の概要: Learning Neural Volumetric Field for Point Cloud Geometry Compression
- arxiv url: http://arxiv.org/abs/2212.05589v1
- Date: Sun, 11 Dec 2022 19:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 17:59:38.895047
- Title: Learning Neural Volumetric Field for Point Cloud Geometry Compression
- Title(参考訳): 点クラウド幾何圧縮のための神経体積場学習
- Authors: Yueyu Hu and Yao Wang
- Abstract要約: 我々は、ニューラルネットワークを学習することで、与えられた点雲の幾何学をコーディングすることを提案する。
空間全体を小さな立方体に分割し,各空でない立方体をニューラルネットワークと入力潜時符号で表現する。
ネットワークは、空間的および時間的冗長性を利用するために、1つのフレームまたは複数のフレームで全ての立方体間で共有される。
- 参考スコア(独自算出の注目度): 13.691147541041804
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the diverse sparsity, high dimensionality, and large temporal
variation of dynamic point clouds, it remains a challenge to design an
efficient point cloud compression method. We propose to code the geometry of a
given point cloud by learning a neural volumetric field. Instead of
representing the entire point cloud using a single overfit network, we divide
the entire space into small cubes and represent each non-empty cube by a neural
network and an input latent code. The network is shared among all the cubes in
a single frame or multiple frames, to exploit the spatial and temporal
redundancy. The neural field representation of the point cloud includes the
network parameters and all the latent codes, which are generated by using
back-propagation over the network parameters and its input. By considering the
entropy of the network parameters and the latent codes as well as the
distortion between the original and reconstructed cubes in the loss function,
we derive a rate-distortion (R-D) optimal representation. Experimental results
show that the proposed coding scheme achieves superior R-D performances
compared to the octree-based G-PCC, especially when applied to multiple frames
of a point cloud video. The code is available at
https://github.com/huzi96/NVFPCC/.
- Abstract(参考訳): 多様な分散性、高次元性、動的点雲の大きな時間変動のため、効率的な点雲圧縮法を設計することは依然として困難である。
神経容積場を学習することにより,与えられた点雲の形状をコード化する。
単一オーバーフィットネットワークを用いてポイントクラウド全体を表現するのではなく、空間全体を小さなキューブに分割し、ニューラルネットワークと入力潜在コードによって各空でないキューブを表現する。
ネットワークは、空間的および時間的冗長性を利用するために、1フレームまたは複数のフレームで全ての立方体間で共有される。
ポイントクラウドのニューラルフィールド表現には、ネットワークパラメータと、ネットワークパラメータとその入力に対するバックプロパゲーションを使用して生成されるすべての潜在コードが含まれている。
ネットワークパラメータと潜時符号のエントロピーと、損失関数における元の立方体と再構成された立方体の歪みを考慮し、レート歪み(R-D)の最適表現を導出する。
実験結果から,提案手法はオクツリーベースG-PCCと比較して,特にポイントクラウドビデオの複数フレームに適用した場合に,優れたR-D性能が得られることが示された。
コードはhttps://github.com/huzi96/NVFPCC/で入手できる。
関連論文リスト
- Point Cloud Compression with Implicit Neural Representations: A Unified Framework [54.119415852585306]
我々は幾何学と属性の両方を扱える先駆的なクラウド圧縮フレームワークを提案する。
本フレームワークでは,2つの座標ベースニューラルネットワークを用いて,voxelized point cloudを暗黙的に表現する。
本手法は,既存の学習手法と比較して,高い普遍性を示す。
論文 参考訳(メタデータ) (2024-05-19T09:19:40Z) - Parametric Surface Constrained Upsampler Network for Point Cloud [33.033469444588086]
バイコビック関数と回転関数で表されるパラメトリック曲面をニューラルネットワークに学習させ,新しいサーフェス正規化器をアップサンプラーネットワークに導入する。
これらの設計は、2つの異なるネットワークに統合され、レイヤのアップサンプリングの利点を生かしている。
両課題の最先端実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-14T21:12:54Z) - GRASP-Net: Geometric Residual Analysis and Synthesis for Point Cloud
Compression [16.98171403698783]
損失点クラウド幾何圧縮のための深層学習を用いた異種アプローチを提案する。
具体的には、粗い点雲上に存在する不規則な特徴に局所的詳細を変換するために、点ベースネットワークを適用する。
論文 参考訳(メタデータ) (2022-09-09T17:09:02Z) - Point Cloud Semantic Segmentation using Multi Scale Sparse Convolution
Neural Network [0.0]
本稿では,マルチスケール超スパース畳み込みに基づく特徴抽出モジュールと,チャネルアテンションに基づく特徴選択モジュールを提案する。
マルチスケールのスパース畳み込みを導入することで、ネットワークは異なるサイズの畳み込みカーネルに基づいてよりリッチな特徴情報をキャプチャできる。
論文 参考訳(メタデータ) (2022-05-03T15:01:20Z) - Differentiable Convolution Search for Point Cloud Processing [114.66038862207118]
本稿では,点雲上での新しい差分畳み込み探索パラダイムを提案する。
純粋にデータ駆動型であり、幾何学的形状モデリングに適した畳み込みのグループを自動生成することができる。
また,内部畳み込みと外部アーキテクチャの同時探索のための共同最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-29T14:42:03Z) - SSPU-Net: Self-Supervised Point Cloud Upsampling via Differentiable
Rendering [21.563862632172363]
地中真理を使わずに高密度の点雲を生成するための自己教師付き点雲アップサンプリングネットワーク(SSPU-Net)を提案する。
これを実現するために,入力スパース点雲と高密度点雲との整合性を利用して画像の形状と描画を行う。
論文 参考訳(メタデータ) (2021-08-01T13:26:01Z) - ParaNet: Deep Regular Representation for 3D Point Clouds [62.81379889095186]
ParaNetは、3Dポイントクラウドを表現するための新しいエンドツーエンドのディープラーニングフレームワークである。
不規則な3D点雲を通常の2Dカラー画像に変換する。
多視点投影とボキセル化に基づく従来の正規表現法とは異なり、提案した表現は微分可能で可逆である。
論文 参考訳(メタデータ) (2020-12-05T13:19:55Z) - Learning-based lossless compression of 3D point cloud geometry [11.69103847045569]
encoderはハイブリッドモードで動作し、octreeとvoxelベースのコーディングを混合する。
提案手法は,最先端MPEG G-PCC規格を平均28%で上回っている。
論文 参考訳(メタデータ) (2020-11-30T11:27:16Z) - Self-Sampling for Neural Point Cloud Consolidation [83.31236364265403]
本稿では,入力点クラウドのみから学習するニューラルポイントクラウドの統合技術を紹介する。
入力ポイントクラウドを、ディープニューラルネットワークのトレーニングに使用するグローバルサブセットで、繰り返し自己サンプルします。
様々な形状から点集合を集約する能力を示すとともに,出力器やノイズを除去する能力を示す。
論文 参考訳(メタデータ) (2020-08-14T17:16:02Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z) - Permutation Matters: Anisotropic Convolutional Layer for Learning on
Point Clouds [145.79324955896845]
本稿では,各点のソフトな置換行列を計算する変分異方性畳み込み演算(PAI-Conv)を提案する。
点雲の実験により、PAI-Convは分類とセマンティックセグメンテーションのタスクにおいて競合する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2020-05-27T02:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。