論文の概要: LINR-PCGC: Lossless Implicit Neural Representations for Point Cloud Geometry Compression
- arxiv url: http://arxiv.org/abs/2507.15686v1
- Date: Mon, 21 Jul 2025 14:48:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.450262
- Title: LINR-PCGC: Lossless Implicit Neural Representations for Point Cloud Geometry Compression
- Title(参考訳): LINR-PCGC:Point Cloud Geometry Compressionのためのロスレスインシシシトニューラルネットワーク表現
- Authors: Wenjie Huang, Qi Yang, Shuting Xia, He Huang, Zhu Li, Yiling Xu,
- Abstract要約: Inlicit Neural Representation (INR)法は、過度に適合したネットワークパラメータをビットストリームに符号化することで問題を解決する。
符号化時間とデコーダサイズに制限があるため、現在のINRベースの手法では、ロッキーな幾何学的圧縮しか考慮していない。
我々は、ポイントクラウド幾何圧縮(LINR-PCGC)のためのロスレスインシシシトニューラルネットワーク表現を提案する。
- 参考スコア(独自算出の注目度): 22.44693836632384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing AI-based point cloud compression methods struggle with dependence on specific training data distributions, which limits their real-world deployment. Implicit Neural Representation (INR) methods solve the above problem by encoding overfitted network parameters to the bitstream, resulting in more distribution-agnostic results. However, due to the limitation of encoding time and decoder size, current INR based methods only consider lossy geometry compression. In this paper, we propose the first INR based lossless point cloud geometry compression method called Lossless Implicit Neural Representations for Point Cloud Geometry Compression (LINR-PCGC). To accelerate encoding speed, we design a group of point clouds level coding framework with an effective network initialization strategy, which can reduce around 60% encoding time. A lightweight coding network based on multiscale SparseConv, consisting of scale context extraction, child node prediction, and model compression modules, is proposed to realize fast inference and compact decoder size. Experimental results show that our method consistently outperforms traditional and AI-based methods: for example, with the convergence time in the MVUB dataset, our method reduces the bitstream by approximately 21.21% compared to G-PCC TMC13v23 and 21.95% compared to SparsePCGC. Our project can be seen on https://huangwenjie2023.github.io/LINR-PCGC/.
- Abstract(参考訳): 既存のAIベースのポイントクラウド圧縮メソッドは、実際のデプロイメントを制限する、特定のトレーニングデータ分散への依存に苦労する。
Inlicit Neural Representation (INR)法は、過度に適合したネットワークパラメータをビットストリームに符号化することで上記の問題を解決する。
しかし、符号化時間とデコーダサイズに制限があるため、現在のINRベースの手法はロッキーな幾何学的圧縮しか考慮していない。
本稿では,ポイントクラウド幾何圧縮(LINR-PCGC)のためのロスレスインプシットニューラル表現と呼ばれる,INRベースのロスレスポイントクラウド幾何圧縮法を提案する。
符号化速度を高速化するため,ネットワーク初期化戦略を効果的に進めた一群の点雲レベル符号化フレームワークを設計し,約60%の符号化時間を短縮できることを示した。
高速な推論とコンパクトなデコーダサイズを実現するために,スケールコンテキスト抽出,子ノード予測,モデル圧縮モジュールからなるマルチスケールSparseConvに基づく軽量符号化ネットワークを提案する。
例えば、MVUBデータセットの収束時間では、G-PCC TMC13v23の約21.21%、SparsePCGCの21.95%に比べてビットストリームを約21.21%削減する。
我々のプロジェクトはhttps://huangwenjie2023.github.io/LINR-PCGC/で見ることができる。
関連論文リスト
- Reducing Storage of Pretrained Neural Networks by Rate-Constrained Quantization and Entropy Coding [56.066799081747845]
成長を続けるニューラルネットワークのサイズは、リソースに制約のあるデバイスに深刻な課題をもたらす。
本稿では,レートアウェア量子化とエントロピー符号化を組み合わせた学習後圧縮フレームワークを提案する。
この方法では非常に高速な復号化が可能であり、任意の量子化グリッドと互換性がある。
論文 参考訳(メタデータ) (2025-05-24T15:52:49Z) - Efficient Implicit Neural Compression of Point Clouds via Learnable Activation in Latent Space [10.056460330355193]
Inlicit Neural Representations (INR) はディープラーニングの強力なパラダイムとして登場した。
静的クラウド圧縮のためのINRベースのフレームワークである textbfPICO を提案する。
当社のアプローチは競争力が高く、PCQMの平均利得は2.7倍10-3$である。
論文 参考訳(メタデータ) (2025-04-20T03:37:32Z) - Point Cloud Compression with Bits-back Coding [32.9521748764196]
本稿では,深層学習に基づく確率モデルを用いて,点雲情報のシャノンエントロピーを推定する。
点雲データセットのエントロピーを推定すると、学習されたCVAEモデルを用いて点雲の幾何学的属性を圧縮する。
本手法の新規性は,CVAEの学習潜在変数モデルを用いて点雲データを圧縮することである。
論文 参考訳(メタデータ) (2024-10-09T06:34:48Z) - SPAC: Sampling-based Progressive Attribute Compression for Dense Point Clouds [51.313922535437726]
本研究では,高密度点雲のエンドツーエンド圧縮法を提案する。
提案手法は,周波数サンプリングモジュール,適応スケール特徴抽出モジュール,幾何支援モジュール,大域的ハイパープライアエントロピーモデルを組み合わせた。
論文 参考訳(メタデータ) (2024-09-16T13:59:43Z) - Hierarchical Prior-based Super Resolution for Point Cloud Geometry
Compression [39.052583172727324]
幾何学に基づくポイントクラウド圧縮(G-PCC)は、ポイントクラウドを圧縮するために移動画像専門家グループによって開発された。
本稿では,点雲幾何学的圧縮のための階層的事前分解能超解法を提案する。
論文 参考訳(メタデータ) (2024-02-17T11:15:38Z) - Deep probabilistic model for lossless scalable point cloud attribute
compression [2.2559617939136505]
我々は、属性を段階的にマルチスケールの潜在空間に投影するエンドツーエンドのクラウド属性符号化法(MNeT)を構築した。
MVUB と MPEG の点群に対して本手法の有効性を検証し,提案手法が最近提案した手法よりも優れており,最新の G-PCC バージョン 14 と同等であることを示す。
論文 参考訳(メタデータ) (2023-03-11T23:39:30Z) - ECM-OPCC: Efficient Context Model for Octree-based Point Cloud
Compression [6.509720419113212]
我々は,十分に効率的なコンテキストモデルを提案し,ポイントクラウドのための効率的なディープラーニングを設計する。
具体的には、まず、自己回帰的コンテキストを活用するために、ウィンドウ制約付きマルチグループ符号化戦略を提案する。
また、その祖先と兄弟に対する現在のノードの依存性を利用するためのデュアルトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-20T09:20:32Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Unfolding Neural Networks for Compressive Multichannel Blind
Deconvolution [71.29848468762789]
圧縮性多チャネルブラインドデコンボリューション問題に対する学習構造付き展開型ニューラルネットワークを提案する。
この問題では、各チャネルの測定は共通のソース信号とスパースフィルタの畳み込みとして与えられる。
提案手法は,従来の圧縮型マルチチャネルブラインドデコンボリューション法よりも,スパースフィルタの精度と高速化の点で優れていることを示す。
論文 参考訳(メタデータ) (2020-10-22T02:34:33Z) - OctSqueeze: Octree-Structured Entropy Model for LiDAR Compression [77.8842824702423]
本稿では,LiDAR点雲のメモリフットプリントを削減するための新しいディープ圧縮アルゴリズムを提案する。
本手法は,メモリフットプリントを低減するために,点間の間隔と構造的冗長性を利用する。
我々のアルゴリズムは、自動運転車などのアプリケーションにおいて、LiDARポイントのオンボードおよびオフボードストレージを減らすために使用できる。
論文 参考訳(メタデータ) (2020-05-14T17:48:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。