論文の概要: Point Cloud Compression with Bits-back Coding
- arxiv url: http://arxiv.org/abs/2410.18115v1
- Date: Wed, 09 Oct 2024 06:34:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:11:57.618267
- Title: Point Cloud Compression with Bits-back Coding
- Title(参考訳): ビットバック符号化によるポイントクラウド圧縮
- Authors: Nguyen Quang Hieu, Minh Nguyen, Dinh Thai Hoang, Diep N. Nguyen, Eryk Dutkiewicz,
- Abstract要約: 本稿では,深層学習に基づく確率モデルを用いて,点雲情報のシャノンエントロピーを推定する。
点雲データセットのエントロピーを推定すると、学習されたCVAEモデルを用いて点雲の幾何学的属性を圧縮する。
本手法の新規性は,CVAEの学習潜在変数モデルを用いて点雲データを圧縮することである。
- 参考スコア(独自算出の注目度): 32.9521748764196
- License:
- Abstract: This paper introduces a novel lossless compression method for compressing geometric attributes of point cloud data with bits-back coding. Our method specializes in using a deep learning-based probabilistic model to estimate the Shannon's entropy of the point cloud information, i.e., geometric attributes of the 3D floating points. Once the entropy of the point cloud dataset is estimated with a convolutional variational autoencoder (CVAE), we use the learned CVAE model to compress the geometric attributes of the point clouds with the bits-back coding technique. The novelty of our method with bits-back coding specializes in utilizing the learned latent variable model of the CVAE to compress the point cloud data. By using bits-back coding, we can capture the potential correlation between the data points, such as similar spatial features like shapes and scattering regions, into the lower-dimensional latent space to further reduce the compression ratio. The main insight of our method is that we can achieve a competitive compression ratio as conventional deep learning-based approaches, while significantly reducing the overhead cost of storage and/or communicating the compression codec, making our approach more applicable in practical scenarios. Throughout comprehensive evaluations, we found that the cost for the overhead is significantly small, compared to the reduction of the compression ratio when compressing large point cloud datasets. Experiment results show that our proposed approach can achieve a compression ratio of 1.56 bit-per-point on average, which is significantly lower than the baseline approach such as Google's Draco with a compression ratio of 1.83 bit-per-point.
- Abstract(参考訳): 本稿では,ビットバック符号化を用いて点雲データの幾何学的属性を圧縮する新しいロスレス圧縮手法を提案する。
本手法は, 深層学習に基づく確率モデルを用いて, 点雲情報のシャノンエントロピー, すなわち3次元浮動小数点の幾何学的特性を推定する。
点クラウドデータセットのエントロピーを畳み込み変分オートエンコーダ(CVAE)で推定すると,学習したCVAEモデルを用いて点クラウドの幾何学的特性をビットバック符号法で圧縮する。
本手法の新規性は,CVAEの学習潜在変数モデルを用いて点雲データを圧縮することである。
ビットバック符号化を用いることで、形状や散乱領域などの類似した空間的特徴などのデータポイント間のポテンシャル相関を低次元潜在空間にキャプチャし、圧縮比をさらに小さくすることができる。
提案手法の主な洞察は,従来の深層学習手法と競合する圧縮比を達成できると同時に,圧縮コーデックのオーバーヘッドを著しく低減し,現実的なシナリオにおいて我々のアプローチをより適用可能にすることである。
総合的な評価を通じて,大規模クラウドデータセットの圧縮時の圧縮率の低減に比べ,オーバーヘッドのコストは著しく小さいことがわかった。
実験の結果,提案手法は平均1点あたり1.56ビットの圧縮比を達成でき,GoogleのDracoのようなベースラインの圧縮比が1.83ビットの圧縮比よりも大幅に低いことがわかった。
関連論文リスト
- End-to-end learned Lossy Dynamic Point Cloud Attribute Compression [5.717288278431968]
本研究では、エンドツーエンドの動的損失属性符号化手法を提案する。
我々は、遅延テンソルをビットストリームに符号化する自動回帰コンテキストモデルとともに、従来の潜時空間を利用するコンテキストモデルを用いる。
論文 参考訳(メタデータ) (2024-08-20T09:06:59Z) - 3D Point Cloud Compression with Recurrent Neural Network and Image
Compression Methods [0.0]
多くのAVアプリケーションでは、LiDARポイントクラウドデータの保存と送信が不可欠である。
データの幅と秩序のない構造のため、ポイントクラウドデータを低ボリュームに圧縮することは困難である。
圧縮アルゴリズムが空間相関を効率的に活用できる新しい3D-to-2D変換を提案する。
論文 参考訳(メタデータ) (2024-02-18T19:08:19Z) - Compression of Structured Data with Autoencoders: Provable Benefit of
Nonlinearities and Depth [83.15263499262824]
勾配勾配勾配は入力のスパース構造を完全に無視する解に収束することを示す。
浅層構造にデノナイジング関数を付加することにより,スパースデータの圧縮におけるガウス性能の改善方法を示す。
CIFAR-10 や MNIST などの画像データセットに対して,本研究の成果を検証した。
論文 参考訳(メタデータ) (2024-02-07T16:32:29Z) - Geometric Prior Based Deep Human Point Cloud Geometry Compression [67.49785946369055]
我々は、点雲の幾何学的冗長性除去に先立って、人間の幾何学的手法を利用する。
高分解能な人点雲を幾何学的先行と構造的偏差の組み合わせとして考えることができる。
提案フレームワークは,既存の学習ベースポイントクラウド圧縮手法を用いて,プレイ・アンド・プラグ方式で動作可能である。
論文 参考訳(メタデータ) (2023-05-02T10:35:20Z) - GRASP-Net: Geometric Residual Analysis and Synthesis for Point Cloud
Compression [16.98171403698783]
損失点クラウド幾何圧縮のための深層学習を用いた異種アプローチを提案する。
具体的には、粗い点雲上に存在する不規則な特徴に局所的詳細を変換するために、点ベースネットワークを適用する。
論文 参考訳(メタデータ) (2022-09-09T17:09:02Z) - Density-preserving Deep Point Cloud Compression [72.0703956923403]
本研究では,局所密度情報を保存する新しい深部クラウド圧縮手法を提案する。
エンコーダはポイントをサンプリングし、ポイントワイドな特徴を学習し、デコーダはこれらの特徴を使ってポイントをサンプリングする。
論文 参考訳(メタデータ) (2022-04-27T03:42:15Z) - Variable Rate Compression for Raw 3D Point Clouds [5.107705550575662]
そこで本研究では,生の3Dポイントクラウドデータを用いた新しい可変レート深部圧縮アーキテクチャを提案する。
我々のネットワークは、ポイントクラウドを明示的に処理し、圧縮された記述を生成することができる。
論文 参考訳(メタデータ) (2022-02-28T15:15:39Z) - Patch-Based Deep Autoencoder for Point Cloud Geometry Compression [8.44208490359453]
本稿では,ディープラーニングを用いたパッチベースの圧縮プロセスを提案する。
私たちはポイントクラウドをパッチに分割し、各パッチを個別に圧縮します。
復号処理では、最終的に圧縮されたパッチを完全な点クラウドに組み立てる。
論文 参考訳(メタデータ) (2021-10-18T08:59:57Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - MuSCLE: Multi Sweep Compression of LiDAR using Deep Entropy Models [78.93424358827528]
本稿では,LiDARセンサデータのストレージストリームを削減するための新しい圧縮アルゴリズムを提案する。
本手法は,従来のLiDAR圧縮法よりも接合形状と強度を著しく低減する。
論文 参考訳(メタデータ) (2020-11-15T17:41:14Z) - OctSqueeze: Octree-Structured Entropy Model for LiDAR Compression [77.8842824702423]
本稿では,LiDAR点雲のメモリフットプリントを削減するための新しいディープ圧縮アルゴリズムを提案する。
本手法は,メモリフットプリントを低減するために,点間の間隔と構造的冗長性を利用する。
我々のアルゴリズムは、自動運転車などのアプリケーションにおいて、LiDARポイントのオンボードおよびオフボードストレージを減らすために使用できる。
論文 参考訳(メタデータ) (2020-05-14T17:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。