論文の概要: Squeeze3D: Your 3D Generation Model is Secretly an Extreme Neural Compressor
- arxiv url: http://arxiv.org/abs/2506.07932v1
- Date: Mon, 09 Jun 2025 16:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.062239
- Title: Squeeze3D: Your 3D Generation Model is Secretly an Extreme Neural Compressor
- Title(参考訳): 3Dモデル「Squeeze3D」
- Authors: Rishit Dagli, Yushi Guan, Sankeerth Durvasula, Mohammadreza Mofayezi, Nandita Vijaykumar,
- Abstract要約: Squeeze3Dは、既存の訓練済みの3D生成モデルから学習した暗黙の事前知識を利用して、非常に高い圧縮比で3Dデータを圧縮する新しいフレームワークである。
提案手法は,事前学習したエンコーダと事前学習した生成モデルとの間に,学習可能なマッピングネットワークを介して遅延空間をブリッジする。
実験により,Squeeze3Dはテクスチャメッシュで最大2187倍,点雲で55倍,放射場で619倍の圧縮比を実現し,多くの既存手法に匹敵する視覚的品質を維持した。
- 参考スコア(独自算出の注目度): 5.06976177768381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Squeeze3D, a novel framework that leverages implicit prior knowledge learnt by existing pre-trained 3D generative models to compress 3D data at extremely high compression ratios. Our approach bridges the latent spaces between a pre-trained encoder and a pre-trained generation model through trainable mapping networks. Any 3D model represented as a mesh, point cloud, or a radiance field is first encoded by the pre-trained encoder and then transformed (i.e. compressed) into a highly compact latent code. This latent code can effectively be used as an extremely compressed representation of the mesh or point cloud. A mapping network transforms the compressed latent code into the latent space of a powerful generative model, which is then conditioned to recreate the original 3D model (i.e. decompression). Squeeze3D is trained entirely on generated synthetic data and does not require any 3D datasets. The Squeeze3D architecture can be flexibly used with existing pre-trained 3D encoders and existing generative models. It can flexibly support different formats, including meshes, point clouds, and radiance fields. Our experiments demonstrate that Squeeze3D achieves compression ratios of up to 2187x for textured meshes, 55x for point clouds, and 619x for radiance fields while maintaining visual quality comparable to many existing methods. Squeeze3D only incurs a small compression and decompression latency since it does not involve training object-specific networks to compress an object.
- Abstract(参考訳): Squeeze3Dは、既存の訓練済みの3D生成モデルから学習した暗黙の事前知識を利用して、非常に高い圧縮比で3Dデータを圧縮する新しいフレームワークである。
提案手法は,事前学習したエンコーダと事前学習した生成モデルとの間に,学習可能なマッピングネットワークを介して遅延空間をブリッジする。
メッシュ、ポイントクラウド、あるいは放射場として表される任意の3Dモデルは、まず事前訓練されたエンコーダによって符号化され、次に(圧縮された)高度にコンパクトなラテントコードに変換される。
この潜在コードは、メッシュやポイントクラウドの極めて圧縮された表現として効果的に使用できる。
マッピングネットワークは、圧縮された潜時コードを強力な生成モデルの潜時空間に変換し、元の3Dモデル(すなわち減圧)を再現するように条件付けする。
Squeeze3Dは完全に生成された合成データに基づいて訓練されており、3Dデータセットを必要としない。
Squeeze3Dアーキテクチャは、既存のトレーニング済みの3Dエンコーダと既存の生成モデルで柔軟に使用することができる。
メッシュ、ポイントクラウド、ラディアンスフィールドなど、さまざまなフォーマットを柔軟にサポートできる。
実験により,Squeeze3Dはテクスチャメッシュで最大2187倍,点雲で55倍,放射場で619倍の圧縮比を実現し,多くの既存手法に匹敵する視覚的品質を維持した。
Squeeze3Dは、オブジェクトを圧縮するオブジェクト固有のネットワークをトレーニングしないため、小さな圧縮と非圧縮の遅延しか発生しない。
関連論文リスト
- Mesh Compression with Quantized Neural Displacement Fields [31.316999947745614]
入射神経表現(INR)は様々な3次元表面表現の圧縮に成功している。
本研究は,INRを用いて3次元トライアングルメッシュを圧縮する簡易かつ効果的な手法を提案する。
本研究では, 複雑なテクスチャの保存が可能であり, 圧縮比が4倍から380倍であることを示す。
論文 参考訳(メタデータ) (2025-03-28T13:35:32Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - Compress3D: a Compressed Latent Space for 3D Generation from a Single Image [27.53099431097921]
トリプレーンオートエンコーダは3次元モデルをコンパクトな3次元ラテント空間に符号化し、3次元幾何情報とテクスチャ情報の両方を圧縮する。
本稿では,低解像度の潜在表現を用いて高解像度の3D特徴量から特徴を問合せする3D対応のクロスアテンション機構を提案する。
われわれのアプローチでは、1つのA100 GPU上で7秒で高品質な3Dアセットを生成できる。
論文 参考訳(メタデータ) (2024-03-20T11:51:04Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - GaussianDreamer: Fast Generation from Text to 3D Gaussians by Bridging 2D and 3D Diffusion Models [102.22388340738536]
2Dおよび3D拡散モデルは、プロンプトに基づいて適切な3Dオブジェクトを生成することができる。
3次元拡散モデルには優れた3次元整合性があるが、トレーニング可能な3次元データは高価で入手が難しいため、その品質と一般化は制限されている。
本稿では,2種類の拡散モデルから近年の明示的かつ効率的な3次元ガウススプラッティング表現を通じて電力を橋渡ししようとする。
論文 参考訳(メタデータ) (2023-10-12T17:22:24Z) - Implicit Autoencoder for Point-Cloud Self-Supervised Representation
Learning [39.521374237630766]
最もポピュラーでアクセスしやすい3D表現、すなわち点雲は、下層の連続した3D表面の離散的なサンプルを含む。
この離散化プロセスは3次元形状のサンプリングのバリエーションを導入し、真の3次元幾何学の伝達可能な知識を開発するのが困難になる。
標準的なオートエンコーディングパラダイムでは、エンコーダは3D形状だけでなく、3D形状の特定の離散サンプリングに関する情報を潜在コードにエンコードする。
これは、デコーダによって再構成された点雲が、原点と再構成された点との完全なマッピングがない限り、受け入れられないためである。
論文 参考訳(メタデータ) (2022-01-03T18:05:52Z) - PvDeConv: Point-Voxel Deconvolution for Autoencoding CAD Construction in
3D [23.87757211847093]
コンピュータ支援設計(cad)モデルの基盤となる形状を密に記述した10k点の高分解能点雲を合成することを学ぶ。
50k以上のCADモデルとその対応する3Dメッシュを含む新しい専用データセット、CC3Dを紹介します。
このデータセットは、3Dスキャン(CADモデル)のペアからサンプリングされた点雲の畳み込みオートエンコーダを学ぶために使用される。
論文 参考訳(メタデータ) (2021-01-12T14:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。