論文の概要: Squeeze3D: Your 3D Generation Model is Secretly an Extreme Neural Compressor
- arxiv url: http://arxiv.org/abs/2506.07932v1
- Date: Mon, 09 Jun 2025 16:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:11.062239
- Title: Squeeze3D: Your 3D Generation Model is Secretly an Extreme Neural Compressor
- Title(参考訳): 3Dモデル「Squeeze3D」
- Authors: Rishit Dagli, Yushi Guan, Sankeerth Durvasula, Mohammadreza Mofayezi, Nandita Vijaykumar,
- Abstract要約: Squeeze3Dは、既存の訓練済みの3D生成モデルから学習した暗黙の事前知識を利用して、非常に高い圧縮比で3Dデータを圧縮する新しいフレームワークである。
提案手法は,事前学習したエンコーダと事前学習した生成モデルとの間に,学習可能なマッピングネットワークを介して遅延空間をブリッジする。
実験により,Squeeze3Dはテクスチャメッシュで最大2187倍,点雲で55倍,放射場で619倍の圧縮比を実現し,多くの既存手法に匹敵する視覚的品質を維持した。
- 参考スコア(独自算出の注目度): 5.06976177768381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Squeeze3D, a novel framework that leverages implicit prior knowledge learnt by existing pre-trained 3D generative models to compress 3D data at extremely high compression ratios. Our approach bridges the latent spaces between a pre-trained encoder and a pre-trained generation model through trainable mapping networks. Any 3D model represented as a mesh, point cloud, or a radiance field is first encoded by the pre-trained encoder and then transformed (i.e. compressed) into a highly compact latent code. This latent code can effectively be used as an extremely compressed representation of the mesh or point cloud. A mapping network transforms the compressed latent code into the latent space of a powerful generative model, which is then conditioned to recreate the original 3D model (i.e. decompression). Squeeze3D is trained entirely on generated synthetic data and does not require any 3D datasets. The Squeeze3D architecture can be flexibly used with existing pre-trained 3D encoders and existing generative models. It can flexibly support different formats, including meshes, point clouds, and radiance fields. Our experiments demonstrate that Squeeze3D achieves compression ratios of up to 2187x for textured meshes, 55x for point clouds, and 619x for radiance fields while maintaining visual quality comparable to many existing methods. Squeeze3D only incurs a small compression and decompression latency since it does not involve training object-specific networks to compress an object.
- Abstract(参考訳): Squeeze3Dは、既存の訓練済みの3D生成モデルから学習した暗黙の事前知識を利用して、非常に高い圧縮比で3Dデータを圧縮する新しいフレームワークである。
提案手法は,事前学習したエンコーダと事前学習した生成モデルとの間に,学習可能なマッピングネットワークを介して遅延空間をブリッジする。
メッシュ、ポイントクラウド、あるいは放射場として表される任意の3Dモデルは、まず事前訓練されたエンコーダによって符号化され、次に(圧縮された)高度にコンパクトなラテントコードに変換される。
この潜在コードは、メッシュやポイントクラウドの極めて圧縮された表現として効果的に使用できる。
マッピングネットワークは、圧縮された潜時コードを強力な生成モデルの潜時空間に変換し、元の3Dモデル(すなわち減圧)を再現するように条件付けする。
Squeeze3Dは完全に生成された合成データに基づいて訓練されており、3Dデータセットを必要としない。
Squeeze3Dアーキテクチャは、既存のトレーニング済みの3Dエンコーダと既存の生成モデルで柔軟に使用することができる。
メッシュ、ポイントクラウド、ラディアンスフィールドなど、さまざまなフォーマットを柔軟にサポートできる。
実験により,Squeeze3Dはテクスチャメッシュで最大2187倍,点雲で55倍,放射場で619倍の圧縮比を実現し,多くの既存手法に匹敵する視覚的品質を維持した。
Squeeze3Dは、オブジェクトを圧縮するオブジェクト固有のネットワークをトレーニングしないため、小さな圧縮と非圧縮の遅延しか発生しない。
関連論文リスト
- Harnessing Text-to-Image Diffusion Models for Point Cloud Self-Supervised Learning [61.04787144322498]
拡散モデルはテキスト・画像生成に広く用いられているが、2次元表現学習に有効であることが証明されている。
本稿では,3次元自己教師型学習のためのSDモデルを活用するフレームワークであるPointSDを提案する。
論文 参考訳(メタデータ) (2025-07-12T01:20:07Z) - Mesh Compression with Quantized Neural Displacement Fields [31.316999947745614]
入射神経表現(INR)は様々な3次元表面表現の圧縮に成功している。
本研究は,INRを用いて3次元トライアングルメッシュを圧縮する簡易かつ効果的な手法を提案する。
本研究では, 複雑なテクスチャの保存が可能であり, 圧縮比が4倍から380倍であることを示す。
論文 参考訳(メタデータ) (2025-03-28T13:35:32Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - Compress3D: a Compressed Latent Space for 3D Generation from a Single Image [27.53099431097921]
トリプレーンオートエンコーダは3次元モデルをコンパクトな3次元ラテント空間に符号化し、3次元幾何情報とテクスチャ情報の両方を圧縮する。
本稿では,低解像度の潜在表現を用いて高解像度の3D特徴量から特徴を問合せする3D対応のクロスアテンション機構を提案する。
われわれのアプローチでは、1つのA100 GPU上で7秒で高品質な3Dアセットを生成できる。
論文 参考訳(メタデータ) (2024-03-20T11:51:04Z) - LN3Diff: Scalable Latent Neural Fields Diffusion for Speedy 3D Generation [73.36690511083894]
本稿では,LN3Diffと呼ばれる新しいフレームワークを導入し,統一された3次元拡散パイプラインに対処する。
提案手法では,3次元アーキテクチャと変分オートエンコーダを用いて,入力画像を構造化されたコンパクトな3次元潜在空間に符号化する。
3次元生成のためのShapeNetの最先端性能を実現し,モノクロ3次元再構成と条件付き3次元生成において優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-18T17:54:34Z) - DatasetNeRF: Efficient 3D-aware Data Factory with Generative Radiance Fields [68.94868475824575]
本稿では,無限で高品質な3Dアノテーションを3Dポイントクラウドセグメンテーションとともに生成できる新しいアプローチを提案する。
我々は3次元生成モデルに先立って強力なセマンティクスを活用してセマンティクスデコーダを訓練する。
トレーニングが完了すると、デコーダは遅延空間を効率よく一般化し、無限のデータの生成を可能にする。
論文 参考訳(メタデータ) (2023-11-18T21:58:28Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal Pre-training Paradigm [111.16358607889609]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - GaussianDreamer: Fast Generation from Text to 3D Gaussians by Bridging 2D and 3D Diffusion Models [102.22388340738536]
2Dおよび3D拡散モデルは、プロンプトに基づいて適切な3Dオブジェクトを生成することができる。
3次元拡散モデルには優れた3次元整合性があるが、トレーニング可能な3次元データは高価で入手が難しいため、その品質と一般化は制限されている。
本稿では,2種類の拡散モデルから近年の明示的かつ効率的な3次元ガウススプラッティング表現を通じて電力を橋渡ししようとする。
論文 参考訳(メタデータ) (2023-10-12T17:22:24Z) - GET3D: A Generative Model of High Quality 3D Textured Shapes Learned
from Images [72.15855070133425]
本稿では,複雑なトポロジ,リッチな幾何学的ディテール,高忠実度テクスチャを備えたExplicit Textured 3Dメッシュを直接生成する生成モデルであるGET3Dを紹介する。
GET3Dは、車、椅子、動物、バイク、人間キャラクターから建物まで、高品質な3Dテクスチャメッシュを生成することができる。
論文 参考訳(メタデータ) (2022-09-22T17:16:19Z) - Implicit Autoencoder for Point-Cloud Self-Supervised Representation
Learning [39.521374237630766]
最もポピュラーでアクセスしやすい3D表現、すなわち点雲は、下層の連続した3D表面の離散的なサンプルを含む。
この離散化プロセスは3次元形状のサンプリングのバリエーションを導入し、真の3次元幾何学の伝達可能な知識を開発するのが困難になる。
標準的なオートエンコーディングパラダイムでは、エンコーダは3D形状だけでなく、3D形状の特定の離散サンプリングに関する情報を潜在コードにエンコードする。
これは、デコーダによって再構成された点雲が、原点と再構成された点との完全なマッピングがない限り、受け入れられないためである。
論文 参考訳(メタデータ) (2022-01-03T18:05:52Z) - Deep Hybrid Self-Prior for Full 3D Mesh Generation [57.78562932397173]
本稿では,深部ニューラルネットワークにおける2D-3Dのハイブリッドな自己優先性を利用して,幾何学的品質を著しく向上する手法を提案する。
特に,まず3次元自己優先型3次元畳み込みニューラルネットワークを用いて初期メッシュを生成し,次いで2次元紫外線アトラスに3次元情報と色情報をエンコードする。
本手法は,スパース入力から高品質な3次元テクスチャメッシュモデルを復元し,テクスチャ品質とテクスチャ品質の両面で最先端の手法より優れている。
論文 参考訳(メタデータ) (2021-08-18T07:44:21Z) - PvDeConv: Point-Voxel Deconvolution for Autoencoding CAD Construction in
3D [23.87757211847093]
コンピュータ支援設計(cad)モデルの基盤となる形状を密に記述した10k点の高分解能点雲を合成することを学ぶ。
50k以上のCADモデルとその対応する3Dメッシュを含む新しい専用データセット、CC3Dを紹介します。
このデータセットは、3Dスキャン(CADモデル)のペアからサンプリングされた点雲の畳み込みオートエンコーダを学ぶために使用される。
論文 参考訳(メタデータ) (2021-01-12T14:14:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。