論文の概要: HybridINR-PCGC: Hybrid Lossless Point Cloud Geometry Compression Bridging Pretrained Model and Implicit Neural Representation
- arxiv url: http://arxiv.org/abs/2602.21662v1
- Date: Wed, 25 Feb 2026 07:42:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.748469
- Title: HybridINR-PCGC: Hybrid Lossless Point Cloud Geometry Compression Bridging Pretrained Model and Implicit Neural Representation
- Title(参考訳): HybridINR-PCGC: 事前学習モデルと暗黙のニューラル表現によるハイブリッドロスレスポイントクラウド圧縮
- Authors: Wenjie Huang, Qi Yang, Shuting Xia, He Huang, Zhu Li, Yiling Xu,
- Abstract要約: 暗黙的神経表現(INR)に基づく手法は、分布に依存しず、より堅牢であるが、時間を要するオンライントレーニングを必要とし、過度に適合したモデルからビットストリームオーバーヘッドに悩まされる。
事前学習モデルとINRを橋渡しする新しいハイブリッドフレームワークであるHybridINR-PCGCを提案する。
本フレームワークは,事前学習ネットワークを活用して収束を加速し,モデルオーバーヘッドを低減するとともに,分布に依存しない特性を保っている。
- 参考スコア(独自算出の注目度): 26.095383448486434
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning-based point cloud compression presents superior performance to handcrafted codecs. However, pretrained-based methods, which are based on end-to-end training and expected to generalize to all the potential samples, suffer from training data dependency. Implicit neural representation (INR) based methods are distribution-agnostic and more robust, but they require time-consuming online training and suffer from the bitstream overhead from the overfitted model. To address these limitations, we propose HybridINR-PCGC, a novel hybrid framework that bridges the pretrained model and INR. Our framework retains distribution-agnostic properties while leveraging a pretrained network to accelerate convergence and reduce model overhead, which consists of two parts: the Pretrained Prior Network (PPN) and the Distribution Agnostic Refiner (DAR). We leverage the PPN, designed for fast inference and stable performance, to generate a robust prior for accelerating the DAR's convergence. The DAR is decomposed into a base layer and an enhancement layer, and only the enhancement layer needed to be packed into the bitstream. Finally, we propose a supervised model compression module to further supervise and minimize the bitrate of the enhancement layer parameters. Based on experiment results, HybridINR-PCGC achieves a significantly improved compression rate and encoding efficiency. Specifically, our method achieves a Bpp reduction of approximately 20.43% compared to G-PCC on 8iVFB. In the challenging out-of-distribution scenario Cat1B, our method achieves a Bpp reduction of approximately 57.85% compared to UniPCGC. And our method exhibits a superior time-rate trade-off, achieving an average Bpp reduction of 15.193% relative to the LINR-PCGC on 8iVFB.
- Abstract(参考訳): 学習ベースのポイントクラウド圧縮は、手作りのコーデックに優れたパフォーマンスを提供する。
しかし、事前訓練された手法は、エンドツーエンドのトレーニングに基づいており、すべての潜在的なサンプルに一般化されることを期待しており、トレーニングデータ依存に悩まされている。
暗黙的神経表現(INR)に基づく手法は、分布に依存しず、より堅牢であるが、時間を要するオンライントレーニングを必要とし、過度に適合したモデルからのビットストリームオーバーヘッドに悩まされる。
これらの制約に対処するために,事前学習モデルとINRを橋渡しする新しいハイブリッドフレームワークであるHybridINR-PCGCを提案する。
本フレームワークは,事前学習ネットワークを利用して,事前学習ネットワーク(PPN)とDAR(Distributed Agnostic Refiner)の2つの部分から構成される,収束とモデルオーバーヘッドの低減を図る。
我々は、高速な推論と安定した性能のために設計されたPPNを利用して、DARの収束を加速するロバストな事前を生成する。
DARは、ベース層とエンハンスメント層とに分解され、ビットストリームに詰め込む必要のあるエンハンスメント層のみである。
最後に、拡張層パラメータのビットレートをさらに監督し、最小化する教師付きモデル圧縮モジュールを提案する。
実験結果に基づいて,HybridINR-PCGCは圧縮率と符号化効率を大幅に向上させる。
具体的には,8iVFB上のG-PCCに比べて約20.43%のBpp削減を実現している。
ディストリビューション・アウト・オブ・ディストリビューションのシナリオであるCat1Bでは,UniPCGCと比較してBppの約57.85%の削減を実現している。
また,8iVFB上のLINR-PCGCと比較して平均Bppの15.193%の削減を実現した。
関連論文リスト
- SQS: Bayesian DNN Compression through Sparse Quantized Sub-distributions [18.749300190253624]
ベイズ変分学習(SQS)による同時プルーニングと低ビット量子化のための統合フレームワークを提案する。
理論的には、スパースで量子化されたディープニューラルネットワークに対する我々の提案した変分アプローチの一貫性のある結果を提供する。
論文 参考訳(メタデータ) (2025-10-10T04:54:29Z) - DiffusionNFT: Online Diffusion Reinforcement with Forward Process [99.94852379720153]
Diffusion Negative-aware FineTuning (DiffusionNFT) は、フローマッチングを通じて前方プロセス上で直接拡散モデルを最適化する新しいオンラインRLパラダイムである。
DiffusionNFTは、CFGフリーのFlowGRPOよりも25倍効率が高い。
論文 参考訳(メタデータ) (2025-09-19T16:09:33Z) - Quantize Once, Train Fast: Allreduce-Compatible Compression with Provable Guarantees [53.950234267704]
我々は、全リデュース勾配互換量子化法であるGlobal-QSGDを紹介する。
ベースライン量子化法で最大3.51%の分散トレーニングを高速化することを示す。
論文 参考訳(メタデータ) (2023-05-29T21:32:15Z) - Low-rank Tensor Decomposition for Compression of Convolutional Neural
Networks Using Funnel Regularization [1.8579693774597708]
低ランクテンソル分解を用いた事前学習ネットワークを圧縮するモデル削減手法を提案する。
圧縮中の重要でない要因を抑えるために, ファンネル関数と呼ばれる新しい正規化法を提案する。
ImageNet2012のResNet18では、GMACの精度は0.7%に過ぎず、Top-1の精度はわずかに低下する。
論文 参考訳(メタデータ) (2021-12-07T13:41:51Z) - Efficient Micro-Structured Weight Unification and Pruning for Neural
Network Compression [56.83861738731913]
ディープニューラルネットワーク(DNN)モデルは、特にリソース制限されたデバイスにおいて、実用的なアプリケーションに不可欠である。
既往の非構造的あるいは構造化された重量刈り法は、推論を真に加速することはほとんど不可能である。
ハードウェア互換のマイクロ構造レベルでの一般化された重み統一フレームワークを提案し,高い圧縮と加速度を実現する。
論文 参考訳(メタデータ) (2021-06-15T17:22:59Z) - An Efficient Statistical-based Gradient Compression Technique for
Distributed Training Systems [77.88178159830905]
Sparsity-Inducing Distribution-based Compression (SIDCo) は閾値に基づくスペーシフィケーションスキームであり、DGCと同等のしきい値推定品質を享受する。
SIDCoは,非圧縮ベースライン,Topk,DGC圧縮機と比較して,最大で41:7%,7:6%,1:9%の速度でトレーニングを高速化する。
論文 参考訳(メタデータ) (2021-01-26T13:06:00Z) - A Tunable Robust Pruning Framework Through Dynamic Network Rewiring of
DNNs [8.597091257152567]
敵攻撃に対して頑健なプルーンドディープニューラルネットワーク(DNN)モデルを生成する動的ネットワークリウィリング(DNR)手法を提案する。
我々の実験により,DNRは,最先端の代替手段によって達成できるものよりも,クリーンで対角的な画像分類性能の圧縮モデルを一貫して見出すことができた。
論文 参考訳(メタデータ) (2020-11-03T19:49:00Z) - A Distributed Training Algorithm of Generative Adversarial Networks with
Quantized Gradients [8.202072658184166]
本稿では,量子化勾配を用いた分散GAN学習アルゴリズムDQGANを提案する。
この新しい方法は、OMDアルゴリズムと呼ばれる特定の単一マシンアルゴリズムに基づいてGANを訓練し、一般的な$delta$-approximate圧縮器を満たす任意の勾配圧縮手法に適用できる。
理論的には、DQGANアルゴリズムの1次定常点への非漸近収束を確立し、提案アルゴリズムが線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2020-10-26T06:06:43Z) - TRP: Trained Rank Pruning for Efficient Deep Neural Networks [69.06699632822514]
低位近似とトレーニングを交互に行うTrated Rank Pruning (TRP)を提案する。
サブ段階降下により最適化された核正則化を利用して、TRPの低位化をさらに促進する。
TRPトレーニングネットワークは本質的に低ランク構造であり、無視可能な性能損失と近似される。
論文 参考訳(メタデータ) (2020-04-30T03:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。