論文の概要: Efficient and Generic Point Model for Lossless Point Cloud Attribute Compression
- arxiv url: http://arxiv.org/abs/2404.06936v1
- Date: Wed, 10 Apr 2024 11:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-11 14:50:32.793067
- Title: Efficient and Generic Point Model for Lossless Point Cloud Attribute Compression
- Title(参考訳): 損失点クラウド属性圧縮のための効率的および汎用的点モデル
- Authors: Kang You, Pan Gao, Zhan Ma,
- Abstract要約: PoLoPCACは、高い圧縮効率と強力な一般化性を同時に達成する効率的で汎用的なPCAC手法である。
提案手法は,Synthetic 2k-ShapeNetデータセットでトレーニングした時に即座にデプロイできる。
実験により, 各種データセット上でのG-PCCv23よりも連続的にビットレートを低減できることがわかった。
- 参考スコア(独自算出の注目度): 28.316347464011056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The past several years have witnessed the emergence of learned point cloud compression (PCC) techniques. However, current learning-based lossless point cloud attribute compression (PCAC) methods either suffer from high computational complexity or deteriorated compression performance. Moreover, the significant variations in point cloud scale and sparsity encountered in real-world applications make developing an all-in-one neural model a challenging task. In this paper, we propose PoLoPCAC, an efficient and generic lossless PCAC method that achieves high compression efficiency and strong generalizability simultaneously. We formulate lossless PCAC as the task of inferring explicit distributions of attributes from group-wise autoregressive priors. A progressive random grouping strategy is first devised to efficiently resolve the point cloud into groups, and then the attributes of each group are modeled sequentially from accumulated antecedents. A locality-aware attention mechanism is utilized to exploit prior knowledge from context windows in parallel. Since our method directly operates on points, it can naturally avoids distortion caused by voxelization, and can be executed on point clouds with arbitrary scale and density. Experiments show that our method can be instantly deployed once trained on a Synthetic 2k-ShapeNet dataset while enjoying continuous bit-rate reduction over the latest G-PCCv23 on various datasets (ShapeNet, ScanNet, MVUB, 8iVFB). Meanwhile, our method reports shorter coding time than G-PCCv23 on the majority of sequences with a lightweight model size (2.6MB), which is highly attractive for practical applications. Dataset, code and trained model are available at https://github.com/I2-Multimedia-Lab/PoLoPCAC.
- Abstract(参考訳): 過去数年間、学習点クラウド圧縮(PCC)技術の出現を目撃してきた。
しかし、現在の学習ベースのロスレスポイントクラウド属性圧縮(PCAC)手法は、高い計算複雑性や圧縮性能の低下に悩まされている。
さらに、実世界のアプリケーションで遭遇するポイントクラウドスケールとスパシティの大きな変化は、オールインワンのニューラルモデルの開発を困難な課題にしている。
本稿では,高圧縮効率と高一般化性を同時に実現する,効率的で汎用的なロスレスPCAC法であるPoLoPCACを提案する。
損失のないPCACをグループワイド自己回帰前処理から属性の明示的な分布を推定するタスクとして定式化する。
プログレッシブ・ランダム・グルーピング・ストラテジーは、まず、ポイント・クラウドをグループに効率的に解決するために考案され、その後、各グループの属性が蓄積した先行要素から逐次モデル化される。
局所性を考慮した注意機構を用いて、コンテキストウィンドウからの事前知識を並列に活用する。
本手法は, 点上で直接動作するため, ボキセル化による歪みを自然に回避することができ, 任意のスケールと密度で点雲上で実行することができる。
実験の結果,本手法はSynthetic 2k-ShapeNetデータセット上でトレーニングした直後に,各種データセット(ShapeNet, ScanNet, MVUB, 8iVFB)上で,最新のG-PCCv23よりも連続的にビットレートの削減を享受しながら,即座に展開可能であることがわかった。
一方,本手法では,軽量なモデルサイズ(2.6MB)の配列ではG-PCCv23よりも短い符号化時間を報告している。
データセット、コード、トレーニングされたモデルはhttps://github.com/I2-Multimedia-Lab/PoLoPCACで入手できる。
関連論文リスト
- Point Cloud Pre-training with Diffusion Models [62.12279263217138]
我々は、ポイントクラウド拡散事前学習(PointDif)と呼ばれる新しい事前学習手法を提案する。
PointDifは、分類、セグメンテーション、検出など、さまざまな下流タスクのために、さまざまな現実世界のデータセット間で大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-25T08:10:05Z) - Instance-aware Dynamic Prompt Tuning for Pre-trained Point Cloud Models [64.49254199311137]
本稿では,事前学習点クラウドモデルのための新しいインスタンス対応動的プロンプトチューニング(IDPT)戦略を提案する。
IDPTの本質は、各ポイントクラウドインスタンスのセマンティックな事前特徴を知覚する動的プロンプト生成モジュールを開発することである。
実験では、IDPTはトレーニング可能なパラメータのわずか7%で、ほとんどのタスクにおいて完全な微調整よりも優れています。
論文 参考訳(メタデータ) (2023-04-14T16:03:09Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Deep probabilistic model for lossless scalable point cloud attribute
compression [2.2559617939136505]
我々は、属性を段階的にマルチスケールの潜在空間に投影するエンドツーエンドのクラウド属性符号化法(MNeT)を構築した。
MVUB と MPEG の点群に対して本手法の有効性を検証し,提案手法が最近提案した手法よりも優れており,最新の G-PCC バージョン 14 と同等であることを示す。
論文 参考訳(メタデータ) (2023-03-11T23:39:30Z) - ECM-OPCC: Efficient Context Model for Octree-based Point Cloud
Compression [6.509720419113212]
我々は,十分に効率的なコンテキストモデルを提案し,ポイントクラウドのための効率的なディープラーニングを設計する。
具体的には、まず、自己回帰的コンテキストを活用するために、ウィンドウ制約付きマルチグループ符号化戦略を提案する。
また、その祖先と兄弟に対する現在のノードの依存性を利用するためのデュアルトランスフォーマーアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-20T09:20:32Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Efficient LiDAR Point Cloud Geometry Compression Through Neighborhood
Point Attention [25.054578678654796]
この研究は、それらに取り組むための近隣点注意(NPA)を示唆している。
まず、k近辺(kNN)を用いて、適応的な地域地区を構築する。
そして、この地区内の情報を動的に集約するために自己認識機構を利用する。
論文 参考訳(メタデータ) (2022-08-26T10:44:30Z) - Efficient dynamic point cloud coding using Slice-Wise Segmentation [10.850101961203748]
MPEGは最近、ダイナミックポイントクラウドコーディングのためのビデオベースのポイントクラウド圧縮(V-PCC)標準を開発した。
V-PCCを用いたデータ不足の主な原因は、3Dから2Dプロジェクションへのパッチ生成と自己隠蔽点である。
本稿では, 重複スライシングを導入し, 発生するパッチ数と損失データ量を削減する手法を提案する。
論文 参考訳(メタデータ) (2022-08-17T04:23:45Z) - An Information Theory-inspired Strategy for Automatic Network Pruning [88.51235160841377]
深層畳み込みニューラルネットワークは、リソース制約のあるデバイスで圧縮されることがよく知られている。
既存のネットワークプルーニング手法の多くは、人的努力と禁忌な計算資源を必要とする。
本稿では,自動モデル圧縮のための情報理論に基づく戦略を提案する。
論文 参考訳(メタデータ) (2021-08-19T07:03:22Z) - Multiscale Point Cloud Geometry Compression [29.605320327889142]
本稿では,3次元ポイント・クラウド・ジオメトリを階層的に再構築するマルチスケール・ツー・エンド・ラーニング・フレームワークを提案する。
このフレームワークは、ポイントクラウド圧縮と再構成のためのスパース畳み込みベースのオートエンコーダの上に開発されている。
論文 参考訳(メタデータ) (2020-11-07T16:11:16Z) - PowerGossip: Practical Low-Rank Communication Compression in
Decentralized Deep Learning [62.440827696638664]
本稿では,近隣労働者間のモデル差を直接圧縮する簡単なアルゴリズムを提案する。
中央集権的なディープラーニングのためにPowerSGDにインスパイアされたこのアルゴリズムは、パワーステップを使用して、1ビットあたりの転送情報を最大化する。
論文 参考訳(メタデータ) (2020-08-04T09:14:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。