論文の概要: Sparse Tensor-based Multiscale Representation for Point Cloud Geometry
Compression
- arxiv url: http://arxiv.org/abs/2111.10633v1
- Date: Sat, 20 Nov 2021 17:02:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 16:48:30.700179
- Title: Sparse Tensor-based Multiscale Representation for Point Cloud Geometry
Compression
- Title(参考訳): 点クラウド幾何圧縮のためのスパーステンソルに基づく多スケール表現
- Authors: Jianqiang Wang, Dandan Ding, Zhu Li, Xiaoxing Feng, Chuntong Cao, Zhan
Ma
- Abstract要約: Sparse Processing (STP) を用いたVoxelized PCGのマルチスケール表現による統合ポイントクラウド幾何 (PCG) 圧縮手法を開発した。
複雑性を適用することで複雑性を著しく減少させるのは、最も確率の高いVoxels(MP-POV)を中心とした畳み込みのみを実行するためである。
提案手法は,すべてのスケールでモデル共有を行うため,ポイントワイズによる軽量な複雑性と,小さなストレージ欲求を示す。
- 参考スコア(独自算出の注目度): 18.24902526033056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study develops a unified Point Cloud Geometry (PCG) compression method
through Sparse Tensor Processing (STP) based multiscale representation of
voxelized PCG, dubbed as the SparsePCGC. Applying the STP reduces the
complexity significantly because it only performs the convolutions centered at
Most-Probable Positively-Occupied Voxels (MP-POV). And the multiscale
representation facilitates us to compress scale-wise MP-POVs progressively. The
overall compression efficiency highly depends on the approximation accuracy of
occupancy probability of each MP-POV. Thus, we design the Sparse Convolution
based Neural Networks (SparseCNN) consisting of sparse convolutions and voxel
re-sampling to extensively exploit priors. We then develop the SparseCNN based
Occupancy Probability Approximation (SOPA) model to estimate the occupancy
probability in a single-stage manner only using the cross-scale prior or in
multi-stage by step-wisely utilizing autoregressive neighbors. Besides, we also
suggest the SparseCNN based Local Neighborhood Embedding (SLNE) to characterize
the local spatial variations as the feature attribute to improve the SOPA. Our
unified approach shows the state-of-art performance in both lossless and lossy
compression modes across a variety of datasets including the dense PCGs (8iVFB,
Owlii) and the sparse LiDAR PCGs (KITTI, Ford) when compared with the MPEG
G-PCC and other popular learning-based compression schemes. Furthermore, the
proposed method presents lightweight complexity due to point-wise computation,
and tiny storage desire because of model sharing across all scales. We make all
materials publicly accessible at https://github.com/NJUVISION/SparsePCGC for
reproducible research.
- Abstract(参考訳): 本研究では,sparsepcgcと呼ばれるvoxelized pcgのsparse tensor processing (stp) に基づくマルチスケール表現による統一点クラウド幾何(pcg)圧縮法を開発した。
STPの適用は、Mest-Probable Positively-Occupied Voxels (MP-POV)を中心とした畳み込みのみを実行するため、複雑さを大幅に減らす。
そして、マルチスケール表現により、スケールワイドMP-POVを徐々に圧縮する。
全体的な圧縮効率は各MP-POVの占有確率の近似精度に大きく依存する。
そこで我々は,スパース畳み込みとボクセル再サンプリングからなるスパース畳み込み型ニューラルネットワーク(SparseCNN)を設計し,先行を広範囲に活用する。
次にsparsecnnに基づく占有確率近似 (sopa) モデルを開発し, 自己回帰的近傍を段階的に活用することにより, クロススケール前または多段階のみで占有確率を単段的に推定する。
さらに,sparsecnnベースの局所的近傍埋め込み (slne) を提案し,局所的な空間的変動をsopaを改善するための特徴属性として特徴付ける。
我々は,MPEG G-PCCと他の一般的な学習ベース圧縮方式と比較して,高密度PCG (8iVFB, Owlii) と疎LiDAR PCG (KITTI, Ford) を含む多種多様なデータセットのロスレス圧縮モードおよびロスリー圧縮モードにおける最先端性能を示す。
さらに,提案手法は,ポイントワイド計算による軽量な複雑性と,全スケールにわたるモデル共有による小さな記憶欲求を示す。
再現可能な研究のために、すべての資料をhttps://github.com/NJUVISION/SparsePCGCで公開しています。
関連論文リスト
- LoRC: Low-Rank Compression for LLMs KV Cache with a Progressive Compression Strategy [59.1298692559785]
キーバリュー(KV)キャッシュは、トランスフォーマーベースの自己回帰型大言語モデル(LLM)を提供する上で重要なコンポーネントである。
この問題を緩和するためのアプローチとしては、(1) アップサイクルステージに統合された効率的な注意変動、(2) テスト時のKVキャッシュ圧縮、(3) テスト時のKVキャッシュ圧縮がある。
そこで我々は,KV重み行列の低ランク近似を提案し,モデル再学習なしに既存のトランスフォーマーベースLCMとのプラグイン統合を実現する。
本手法は,テスト段階におけるアップサイクリング段階のモデルチューニングやタスク固有のプロファイリングを伴わずに機能するように設計されている。
論文 参考訳(メタデータ) (2024-10-04T03:10:53Z) - ECNR: Efficient Compressive Neural Representation of Time-Varying
Volumetric Datasets [6.3492793442257085]
圧縮型ニューラル表現は、大量のデータセットを管理する従来の圧縮方法に代わる有望な代替手段として登場した。
本稿では、時間変化データ圧縮のための効率的なニューラル表現(ECNR)ソリューションを提案する。
複数のデータセットでECNRの有効性を示し、それを最先端の圧縮手法と比較する。
論文 参考訳(メタデータ) (2023-10-02T06:06:32Z) - Binarized Spectral Compressive Imaging [59.18636040850608]
ハイパースペクトル画像(HSI)再構成のための既存のディープラーニングモデルは、優れた性能を実現するが、膨大なメモリと計算資源を持つ強力なハードウェアを必要とする。
本稿では,BiSRNet(Biarized Spectral-Redistribution Network)を提案する。
BiSRNetは,提案手法を用いてベースモデルのバイナライズを行う。
論文 参考訳(メタデータ) (2023-05-17T15:36:08Z) - CARNet:Compression Artifact Reduction for Point Cloud Attribute [37.78660069355263]
圧縮アーチファクトを低減するため,Geometry-based Point Cloud Compression (G-PCC) 標準の学習型適応ループフィルタを開発した。
提案手法は, 圧縮歪み近似として複数のMPSOを生成し, アーティファクト緩和のために線形に重み付けする。
論文 参考訳(メタデータ) (2022-09-17T08:05:35Z) - Efficient LiDAR Point Cloud Geometry Compression Through Neighborhood
Point Attention [25.054578678654796]
この研究は、それらに取り組むための近隣点注意(NPA)を示唆している。
まず、k近辺(kNN)を用いて、適応的な地域地区を構築する。
そして、この地区内の情報を動的に集約するために自己認識機構を利用する。
論文 参考訳(メタデータ) (2022-08-26T10:44:30Z) - SDQ: Stochastic Differentiable Quantization with Mixed Precision [46.232003346732064]
本稿では,MPQ戦略を自動的に学習できる新しい微分可能量子化(SDQ)手法を提案する。
最適なMPQ戦略が得られた後、エントロピーを意識したビン正規化と知識蒸留でネットワークを訓練する。
SDQは、最先端の混合データセット、または低いビット幅で単一精度の量子化よりも優れている。
論文 参考訳(メタデータ) (2022-06-09T12:38:18Z) - OPQ: Compressing Deep Neural Networks with One-shot Pruning-Quantization [32.60139548889592]
本稿では,新しいワンショットプルーニング量子化(OPQ)を提案する。
OPQは、事前訓練された重みパラメータのみによる圧縮割り当てを解析的に解決する。
本稿では,共通コードブックを共有するために各レイヤの全チャネルを強制する,統一的なチャネルワイド量子化手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T09:05:25Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Communication-Efficient Federated Learning via Quantized Compressed
Sensing [82.10695943017907]
提案フレームワークは,無線機器の勾配圧縮とパラメータサーバの勾配再構成からなる。
勾配スペーシフィケーションと量子化により、我々の戦略は1ビット勾配圧縮よりも高い圧縮比を達成することができる。
圧縮を行わない場合とほぼ同じ性能を実現できることを示す。
論文 参考訳(メタデータ) (2021-11-30T02:13:54Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Permute, Quantize, and Fine-tune: Efficient Compression of Neural
Networks [70.0243910593064]
ベクトル量子化の成功の鍵は、どのパラメータ群を一緒に圧縮するかを決定することである。
本稿では,隣り合う2つの層の重みを同じ関数を表現しながら不変にすることができることを観察する。
次に、レート歪み理論への接続を確立し、圧縮し易いネットワークとなる置換を探索する。
論文 参考訳(メタデータ) (2020-10-29T15:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。