論文の概要: LLM-PCGC: Large Language Model-based Point Cloud Geometry Compression
- arxiv url: http://arxiv.org/abs/2408.08682v1
- Date: Fri, 16 Aug 2024 11:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 15:45:34.974839
- Title: LLM-PCGC: Large Language Model-based Point Cloud Geometry Compression
- Title(参考訳): LLM-PCGC:大規模言語モデルに基づくポイントクラウド幾何圧縮
- Authors: Yuqi Ye, Wei Gao,
- Abstract要約: 本稿では,圧縮タスクに大規模言語モデル(LLM)を用いることの可能性について検討する。
本稿では,Large Language Model-based Point Cloud Geometry Compression (LLM-PCGC)法を提案する。
提案手法は,テキスト記述や整列操作を必要とせずに,点雲の幾何情報を圧縮できることを示す。
- 参考スコア(独自算出の注目度): 4.754973569457509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The key to effective point cloud compression is to obtain a robust context model consistent with complex 3D data structures. Recently, the advancement of large language models (LLMs) has highlighted their capabilities not only as powerful generators for in-context learning and generation but also as effective compressors. These dual attributes of LLMs make them particularly well-suited to meet the demands of data compression. Therefore, this paper explores the potential of using LLM for compression tasks, focusing on lossless point cloud geometry compression (PCGC) experiments. However, applying LLM directly to PCGC tasks presents some significant challenges, i.e., LLM does not understand the structure of the point cloud well, and it is a difficult task to fill the gap between text and point cloud through text description, especially for large complicated and small shapeless point clouds. To address these problems, we introduce a novel architecture, namely the Large Language Model-based Point Cloud Geometry Compression (LLM-PCGC) method, using LLM to compress point cloud geometry information without any text description or aligning operation. By utilizing different adaptation techniques for cross-modality representation alignment and semantic consistency, including clustering, K-tree, token mapping invariance, and Low Rank Adaptation (LoRA), the proposed method can translate LLM to a compressor/generator for point cloud. To the best of our knowledge, this is the first structure to employ LLM as a compressor for point cloud data. Experiments demonstrate that the LLM-PCGC outperforms the other existing methods significantly, by achieving -40.213% bit rate reduction compared to the reference software of MPEG Geometry-based Point Cloud Compression (G-PCC) standard, and by achieving -2.267% bit rate reduction compared to the state-of-the-art learning-based method.
- Abstract(参考訳): 効率的なポイントクラウド圧縮の鍵は、複雑な3Dデータ構造と整合した堅牢なコンテキストモデルを得ることである。
近年,大規模言語モデル (LLM) の進歩は,テキスト内学習と生成のための強力なジェネレータとしてだけでなく,効率的な圧縮機としてもその能力を強調している。
これらのLLMの2つの属性は、データ圧縮の要求を満たすのに特に適している。
そこで本研究では,LLMを用いた圧縮作業の可能性について検討し,ロスレスポイントクラウド幾何圧縮(PCGC)実験に着目した。
しかし, LLMをPCGCタスクに直接適用することは, 点雲の構造をよく理解していないこと, テキスト記述による点雲と点雲のギャップを埋めることの難しさなど, 重大な課題を生じさせる。
これらの問題に対処するために,LLMを用いたLarge Language Model-based Point Cloud Geometry Compression (LLM-PCGC)法という新しいアーキテクチャを導入する。
クラスタリング,Kツリー,トークンマッピング不変性,ローランク適応(LoRA)など,多種多様な適応手法を用いて,LLMをポイントクラウド用の圧縮子/ジェネレータに変換する。
我々の知る限りでは、これはポイントクラウドデータの圧縮機としてLLMを使用した最初の構造である。
LLM-PCGCはMPEG Geometry-based Point Cloud Compression (G-PCC)標準の基準ソフトウェアと比較して-40.213%のビットレート削減を達成し、最先端の学習法に比べて-2.267%のビットレート削減を達成し、既存の手法よりも大幅に性能が向上した。
関連論文リスト
- Large Language Models for Lossless Image Compression: Next-Pixel Prediction in Language Space is All You Need [53.584140947828004]
前例のないインテリジェンスを持つ言語大モデル(LLM)は、様々なデータモダリティのための汎用ロスレス圧縮機である。
P$2$-LLMは,様々な入念な洞察と方法論を統合した次世代の予測型LLMである。
ベンチマークデータセットの実験では、P$2$-LLMがSOTAの古典的および学習的コーデックに勝ることを示した。
論文 参考訳(メタデータ) (2024-11-19T12:15:40Z) - Point Cloud Compression with Bits-back Coding [32.9521748764196]
本稿では,深層学習に基づく確率モデルを用いて,点雲情報のシャノンエントロピーを推定する。
点雲データセットのエントロピーを推定すると、学習されたCVAEモデルを用いて点雲の幾何学的属性を圧縮する。
本手法の新規性は,CVAEの学習潜在変数モデルを用いて点雲データを圧縮することである。
論文 参考訳(メタデータ) (2024-10-09T06:34:48Z) - Search for Efficient Large Language Models [52.98684997131108]
大規模言語モデル(LLMs)は、人工知能研究の領域で長い間停滞してきた。
軽量プルーニング、量子化、蒸留がLLMの圧縮に取り入れられ、メモリの削減と推論の加速を狙った。
ほとんどのモデル圧縮技術は、最適アーキテクチャの探索を見越して重量最適化に重点を置いている。
論文 参考訳(メタデータ) (2024-09-25T21:32:12Z) - PVContext: Hybrid Context Model for Point Cloud Compression [61.24130634750288]
我々は,効率的なオクツリーベースのポイントクラウド圧縮のためのハイブリッドコンテキストモデルPVContextを提案する。
PVContextは、ボクセルを用いて局所幾何学情報を正確に表現するVoxel Contextと、ポイントクラウドからグローバルな形状情報を効率的に保存するPoint Contextの2つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-09-19T12:47:35Z) - SPAC: Sampling-based Progressive Attribute Compression for Dense Point Clouds [51.313922535437726]
本研究では,高密度点雲のエンドツーエンド圧縮法を提案する。
提案手法は,周波数サンプリングモジュール,適応スケール特徴抽出モジュール,幾何支援モジュール,大域的ハイパープライアエントロピーモデルを組み合わせた。
論文 参考訳(メタデータ) (2024-09-16T13:59:43Z) - Efficient and Generic Point Model for Lossless Point Cloud Attribute Compression [28.316347464011056]
PoLoPCACは、高い圧縮効率と強力な一般化性を同時に達成する効率的で汎用的なPCAC手法である。
提案手法は,Synthetic 2k-ShapeNetデータセットでトレーニングした時に即座にデプロイできる。
実験により, 各種データセット上でのG-PCCv23よりも連続的にビットレートを低減できることがわかった。
論文 参考訳(メタデータ) (2024-04-10T11:40:02Z) - Lightweight super resolution network for point cloud geometry
compression [34.42460388539782]
本稿では,軽量超解像ネットワークを利用して点雲形状を圧縮する手法を提案する。
提案手法は,ポイントクラウドをベースポイントクラウドに分解し,元のポイントクラウドを再構築するパターンを含む。
また,MPEG Cat1(Solid)とCat2データセットの圧縮性能について実験を行った。
論文 参考訳(メタデータ) (2023-11-02T03:34:51Z) - Compressing LLMs: The Truth is Rarely Pure and Never Simple [90.05366363633568]
Knowledge-Intensive Compressed LLM BenchmarKは、圧縮された大言語モデルの評価プロトコルを再定義することを目的としている。
LLM-KICKは、現在のSoTA圧縮方式の多くの有利な利点と不運な点を明らかにしている。
LLM-KICKは、言語理解、推論、生成、テキスト内検索、テキスト内要約などのための圧縮LLMの能力に一様にアクセスできるように設計されている。
論文 参考訳(メタデータ) (2023-10-02T17:42:37Z) - EPCL: Frozen CLIP Transformer is An Efficient Point Cloud Encoder [60.52613206271329]
本稿では,冷凍CLIP変換器を用いて高品質のクラウドモデルをトレーニングするための textbfEfficient textbfPoint textbfCloud textbfLearning (EPCL) を提案する。
我々のEPCLは、2D-3Dデータをペア化せずに画像の特徴と点雲の特徴を意味的に整合させることで、2Dと3Dのモダリティを接続する。
論文 参考訳(メタデータ) (2022-12-08T06:27:11Z) - Multiscale Point Cloud Geometry Compression [29.605320327889142]
本稿では,3次元ポイント・クラウド・ジオメトリを階層的に再構築するマルチスケール・ツー・エンド・ラーニング・フレームワークを提案する。
このフレームワークは、ポイントクラウド圧縮と再構成のためのスパース畳み込みベースのオートエンコーダの上に開発されている。
論文 参考訳(メタデータ) (2020-11-07T16:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。