論文の概要: TED-4DGS: Temporally Activated and Embedding-based Deformation for 4DGS Compression
- arxiv url: http://arxiv.org/abs/2512.05446v1
- Date: Fri, 05 Dec 2025 05:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.912816
- Title: TED-4DGS: Temporally Activated and Embedding-based Deformation for 4DGS Compression
- Title(参考訳): TED-4DGS:4DGS圧縮のための一時活性化および埋め込み型変形
- Authors: Cheng-Yuan Ho, He-Bi Yang, Jui-Chiu Chiang, Yu-Lun Liu, Wen-Hsiao Peng,
- Abstract要約: 速度歪み最適化4DGS圧縮のための時間的活性化および埋め込みに基づく変形方式であるTED-4DGSを提案する。
提案手法は,複数の実世界のデータセット上での最先端の速度歪み性能を実現する。
- 参考スコア(独自算出の注目度): 14.026420167067117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building on the success of 3D Gaussian Splatting (3DGS) in static 3D scene representation, its extension to dynamic scenes, commonly referred to as 4DGS or dynamic 3DGS, has attracted increasing attention. However, designing more compact and efficient deformation schemes together with rate-distortion-optimized compression strategies for dynamic 3DGS representations remains an underexplored area. Prior methods either rely on space-time 4DGS with overspecified, short-lived Gaussian primitives or on canonical 3DGS with deformation that lacks explicit temporal control. To address this, we present TED-4DGS, a temporally activated and embedding-based deformation scheme for rate-distortion-optimized 4DGS compression that unifies the strengths of both families. TED-4DGS is built on a sparse anchor-based 3DGS representation. Each canonical anchor is assigned learnable temporal-activation parameters to specify its appearance and disappearance transitions over time, while a lightweight per-anchor temporal embedding queries a shared deformation bank to produce anchor-specific deformation. For rate-distortion compression, we incorporate an implicit neural representation (INR)-based hyperprior to model anchor attribute distributions, along with a channel-wise autoregressive model to capture intra-anchor correlations. With these novel elements, our scheme achieves state-of-the-art rate-distortion performance on several real-world datasets. To the best of our knowledge, this work represents one of the first attempts to pursue a rate-distortion-optimized compression framework for dynamic 3DGS representations.
- Abstract(参考訳): 静的3次元シーン表現における3Dガウススティング(3DGS)の成功に基づいて、4DGSまたはダイナミック3DGSと呼ばれるダイナミックシーンへの拡張が注目されている。
しかし、動的3DGS表現に対する速度歪み最適化圧縮戦略とともに、よりコンパクトで効率的な変形スキームを設計することは、まだ未定の領域である。
以前の手法では、過剰に特定され短命なガウス原始体を持つ時空4DGSや、時間的制御を明示していない変形を持つ標準3DGSに依存していた。
TED-4DGSは,2つの家族の強度を統一する速度歪み最適化4DGS圧縮のための時間的活性化および埋め込みに基づく変形方式である。
TED-4DGSはスパースアンカーベースの3DGS表現上に構築されている。
各標準アンカーは、その出現と消失遷移を時間とともに指定するために学習可能な時間的アクティベーションパラメータを割り当てられ、一方、軽量なアンカー毎の時間的埋め込みは共有変形バンクをクエリしてアンカー固有の変形を生成する。
速度歪み圧縮には、アンカー属性の分布をモデル化するための暗黙的ニューラル表現(INR)に基づくハイパープライアと、アンカー内相関を捉えるためのチャネルワイド自己回帰モデルが組み込まれている。
これらの新しい要素により,本手法は実世界の複数のデータセット上での最先端の速度歪み性能を実現する。
我々の知る限り、この研究は動的3DGS表現のための速度歪み最適化圧縮フレームワークを追求する最初の試みの1つである。
関連論文リスト
- P-4DGS: Predictive 4D Gaussian Splatting with 90$\times$ Compression [26.130131551764077]
3D Gaussian Splatting (3DGS) は、シーン表現の忠実さとリアルタイムレンダリング性能が優れており、注目されている。
有望な結果を得たにもかかわらず、既存のアルゴリズムのほとんどは、動的シーンに固有の時間的および空間的冗長性を見落としている。
コンパクトな4次元シーンモデリングのための新しい動的3DGS表現であるP-4DGSを提案する。
論文 参考訳(メタデータ) (2025-10-11T05:19:41Z) - SCas4D: Structural Cascaded Optimization for Boosting Persistent 4D Novel View Synthesis [53.10680153186481]
SCas4Dは3次元ガウススプラッティングにおける構造パターンを動的シーンに活用するカスケード最適化フレームワークである。
SCas4Dは、粗い部分レベルから細い点レベルへの変形を段階的に精製することにより、時間フレーム当たり100イテレーション以内の収束を実現する。
このアプローチはまた、自己教師付きオブジェクトセグメンテーション、新しいビュー合成、および高密度点追跡タスクにおける効果を示す。
論文 参考訳(メタデータ) (2025-10-08T06:39:33Z) - Speedy Deformable 3D Gaussian Splatting: Fast Rendering and Compression of Dynamic Scenes [57.69608119350651]
動的シーンへの3次元ガウススティング(3DGS)の最近の拡張は、ニューラルネットワークを用いて各ガウスの時間変化変形を予測することによって、高品質な新規ビュー合成を実現する。
しかしながら、ガウス毎のニューラルネットワークを各フレームで実行することは、レンダリング速度を制限し、メモリと計算要求を増大させる、重大なボトルネックとなる。
動的3DGSおよび4DGS表現のレンダリング速度を2つの相補的手法により低減し,高速化する汎用パイプラインであるSpeedy Deformable 3D Gaussian Splatting(SpeeDe3DGS)を提案する。
論文 参考訳(メタデータ) (2025-06-09T16:30:48Z) - 4DGC: Rate-Aware 4D Gaussian Compression for Efficient Streamable Free-Viewpoint Video [56.04182926886754]
3D Gaussian Splatting (3DGS)は、フォトリアリスティック・フリー・ビューポイント・ビデオ(FVV)体験を可能にする大きな可能性を秘めている。
既存の方法は、動的3DGS表現と圧縮を別々に扱うのが一般的である。
本稿では,FVVのRD性能を向上しつつ,ストレージサイズを大幅に削減するレート対応4Dガウス圧縮フレームワークである4DGCを提案する。
論文 参考訳(メタデータ) (2025-03-24T08:05:27Z) - Light4GS: Lightweight Compact 4D Gaussian Splatting Generation via Context Model [21.375070073632944]
3次元ビュー合成技術(3DGS)は,新規・新規コンテンツのための効率的な高忠実度パラダイムとして登場している。
3DGSを動的コンテンツに適用するために、変形可能な3DGSは、時間的に変形可能なプリミティブと学習可能な遅延埋め込みを組み込んで複雑な動きをキャプチャする。
優れた性能にもかかわらず、高次元の埋め込みと大量のプリミティブは、かなりのストレージ要件をもたらす。
論文 参考訳(メタデータ) (2025-03-18T06:28:13Z) - CAT-3DGS: A Context-Adaptive Triplane Approach to Rate-Distortion-Optimized 3DGS Compression [10.869104603083676]
3D Gaussian Splatting (3DGS)は、最近、有望な3D表現として登場した。
リモート側への3DGS表現の圧縮と送信の必要性は見落としている。
この新しいアプリケーションは、レート歪みを最適化した3DGS圧縮を要求する。
論文 参考訳(メタデータ) (2025-03-01T05:42:52Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。