論文の概要: N4MC: Neural 4D Mesh Compression
- arxiv url: http://arxiv.org/abs/2602.20312v1
- Date: Mon, 23 Feb 2026 19:58:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.509688
- Title: N4MC: Neural 4D Mesh Compression
- Title(参考訳): N4MC:ニューラル4Dメッシュ圧縮
- Authors: Guodong Chen, Huanshuo Dong, Mallesham Dasari,
- Abstract要約: 時間変化のメッシュシーケンスを効率よく圧縮する最初の4次元ニューラル圧縮フレームワークであるN4MCを提案する。
N4MCは、2次元ビデオコーデックにおけるフレーム間圧縮のインスピレーションを受け、長いメッシュシーケンスで動き補償を学ぶ。
- 参考スコア(独自算出の注目度): 3.072643868061799
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present N4MC, the first 4D neural compression framework to efficiently compress time-varying mesh sequences by exploiting their temporal redundancy. Unlike prior neural mesh compression methods that treat each mesh frame independently, N4MC takes inspiration from inter-frame compression in 2D video codecs, and learns motion compensation in long mesh sequences. Specifically, N4MC converts consecutive irregular mesh frames into regular 4D tensors to provide a uniform and compact representation. These tensors are then condensed using an auto-decoder, which captures both spatial and temporal correlations for redundancy removal. To enhance temporal coherence, we introduce a transformer-based interpolation model that predicts intermediate mesh frames conditioned on latent embeddings derived from tracked volume centers, eliminating motion ambiguities. Extensive evaluations show that N4MC outperforms state-of-the-art in rate-distortion performance, while enabling real-time decoding of 4D mesh sequences. The implementation of our method is available at: https://github.com/frozzzen3/N4MC.
- Abstract(参考訳): N4MCは,時間変動メッシュ列を時間的冗長性を利用して効率よく圧縮する,最初の4次元ニューラル圧縮フレームワークである。
各メッシュフレームを個別に扱う従来のニューラルネットワーク圧縮方法とは異なり、N4MCは2次元ビデオコーデックのフレーム間圧縮からインスピレーションを得て、長いメッシュシーケンスで動き補償を学ぶ。
具体的には、N4MCは連続した不規則なメッシュフレームを通常の4次元テンソルに変換し、一様かつコンパクトな表現を提供する。
これらのテンソルはオートデコーダを使って凝縮され、空間的および時間的相関を捉えて冗長性を取り除く。
時間的コヒーレンスを高めるために,トラックドボリュームセンタから導出される遅延埋め込みに条件付けられた中間メッシュフレームを予測し,動きのあいまいさを解消するトランスフォーマーベースの補間モデルを導入する。
大規模評価の結果,N4MCは4次元メッシュ列のリアルタイム復号化を実現しつつ,速度歪み性能の最先端性に優れていた。
私たちのメソッドの実装は、https://github.com/frozzzen3/N4MCで利用可能です。
関連論文リスト
- SS4D: Native 4D Generative Model via Structured Spacetime Latents [50.29500511908054]
モノクロビデオから直接動的3Dオブジェクトを合成する,ネイティブな4D生成モデルであるSS4Dを提案する。
発電機を4Dデータで直接訓練し、高忠実度、時間的コヒーレンス、構造的整合性を実現する。
論文 参考訳(メタデータ) (2025-12-16T10:45:06Z) - Forge4D: Feed-Forward 4D Human Reconstruction and Interpolation from Uncalibrated Sparse-view Videos [27.595035122927204]
本研究では,非校正されたスパースビュー映像からの時間的整列表現を効率よく校正するフィードフォワード4次元人間の再構成とモデルを提案する。
新たに,隣接する2つのフレーム間の3次元ガウス運動の高密度な動きを予測するための動き予測モジュールを設計した。
実験では、ドメイン内データセットとドメイン外データセットの両方において、モデルの有効性を示す。
論文 参考訳(メタデータ) (2025-09-29T02:47:14Z) - 4DGCPro: Efficient Hierarchical 4D Gaussian Compression for Progressive Volumetric Video Streaming [52.76837132019501]
本稿では,新しい階層型4D圧縮フレームワークである4DGCProを紹介する。
4DGCProは、プログレッシブボリュームビデオストリーミングによるリアルタイムモバイルデコーディングと高品質なレンダリングを容易にする。
エンドツーエンドのエントロピー最適化トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2025-09-22T08:38:17Z) - 4D-MoDe: Towards Editable and Scalable Volumetric Streaming via Motion-Decoupled 4D Gaussian Compression [45.0749499664284]
スケーラブルで編集可能なビデオストリーミング用に設計された4Dガウス圧縮フレームワークである4D-MoDeを提案する。
本手法では,静的な背景を動的フォアグラウンドから明示的に分離する階層表現を導入する。
複数のデータセットの実験では、4D-MoDeは、ストレージコストの桁違いで競争力のある再構築品質を一貫して達成している。
論文 参考訳(メタデータ) (2025-09-22T08:35:46Z) - 4DGC: Rate-Aware 4D Gaussian Compression for Efficient Streamable Free-Viewpoint Video [56.04182926886754]
3D Gaussian Splatting (3DGS)は、フォトリアリスティック・フリー・ビューポイント・ビデオ(FVV)体験を可能にする大きな可能性を秘めている。
既存の方法は、動的3DGS表現と圧縮を別々に扱うのが一般的である。
本稿では,FVVのRD性能を向上しつつ,ストレージサイズを大幅に削減するレート対応4Dガウス圧縮フレームワークである4DGCを提案する。
論文 参考訳(メタデータ) (2025-03-24T08:05:27Z) - Improved Video VAE for Latent Video Diffusion Model [55.818110540710215]
ビデオオートエンコーダ(VAE)は、ピクセルデータを低次元の潜在空間に圧縮することを目的としており、OpenAIのSoraで重要な役割を果たしている。
既存のVAEのほとんどは、時間空間圧縮のために3次元因果構造に事前訓練された画像VAEを注入する。
ビデオVAE(IV-VAE)をさらに改善するための新しいKTCアーキテクチャとGCConvモジュールを提案する。
論文 参考訳(メタデータ) (2024-11-10T12:43:38Z) - Ultron: Enabling Temporal Geometry Compression of 3D Mesh Sequences using Temporal Correspondence and Mesh Deformation [2.0914328542137346]
既存の3Dモデル圧縮手法は主に静的モデルに焦点を当てており、フレーム間情報を考慮していない。
本稿では,時間的対応とメッシュ変形を用いた任意のトポロジでメッシュ列を圧縮する方法を提案する。
論文 参考訳(メタデータ) (2024-09-08T16:34:19Z) - MAMBA4D: Efficient Long-Sequence Point Cloud Video Understanding with Disentangled Spatial-Temporal State Space Models [14.024240637175216]
状態空間モデル(SSM)に基づく新しいポイントクラウドビデオ理解バックボーンを提案する。
具体的には,まず空間と時間を4次元ビデオシーケンスで切り離し,設計したマンバブロックと空間的時間的相関を確立する。
提案手法は, 87.5%のGPUメモリ削減と5.36倍の高速化を実現した。
論文 参考訳(メタデータ) (2024-05-23T09:08:09Z) - Motion2VecSets: 4D Latent Vector Set Diffusion for Non-rigid Shape Reconstruction and Tracking [52.393359791978035]
Motion2VecSetsは点雲列からの動的表面再構成のための4次元拡散モデルである。
グローバルな潜在符号の代わりに、潜在集合で4Dダイナミクスをパラメータ化する。
時間的コヒーレントな物体追跡のために、変形潜在集合を同期的に認知し、複数のフレーム間で情報を交換する。
論文 参考訳(メタデータ) (2024-01-12T15:05:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。