論文の概要: P-GSVC: Layered Progressive 2D Gaussian Splatting for Scalable Image and Video
- arxiv url: http://arxiv.org/abs/2603.10551v1
- Date: Wed, 11 Mar 2026 08:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.861233
- Title: P-GSVC: Layered Progressive 2D Gaussian Splatting for Scalable Image and Video
- Title(参考訳): P-GSVC: スケーラブルな画像とビデオのための階層化プログレッシブな2Dガウススプレイティング
- Authors: Longan Wang, Yuang Shi, Wei Tsang Ooi,
- Abstract要約: P-GSVCはプログレッシブな2次元ガウススプラッティングフレームワークである。
P-GSVCは2次元ガウスプレートをベース層と連続的な拡張層に整理し、粗い微細な再構築を可能にする。
実験の結果,ビデオのPSNRは最大1.9dB改善,画像のPSNRは2.6dB改善できることがわかった。
- 参考スコア(独自算出の注目度): 5.819207366850288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian splatting has emerged as a competitive explicit representation for image and video reconstruction. In this work, we present P-GSVC, the first layered progressive 2D Gaussian splatting framework that provides a unified solution for scalable Gaussian representation in both images and videos. P-GSVC organizes 2D Gaussian splats into a base layer and successive enhancement layers, enabling coarse-to-fine reconstructions. To effectively optimize this layered representation, we propose a joint training strategy that simultaneously updates Gaussians across layers, aligning their optimization trajectories to ensure inter-layer compatibility and a stable progressive reconstruction. P-GSVC supports scalability in terms of both quality and resolution. Our experiments show that the joint training strategy can gain up to 1.9 dB improvement in PSNR for video and 2.6 dB improvement in PSNR for image when compared to methods that perform sequential layer-wise training. Project page: https://longanwang-cs.github.io/PGSVC-webpage/
- Abstract(参考訳): ガウスのスプラッティングは、画像とビデオの再構成のための競争力のある明示的な表現として現れてきた。
本稿では,P-GSVCについて述べる。P-GSVCはプログレッシブな2次元ガウス分割フレームワークで,画像とビデオの両方においてスケーラブルガウス表現のための統一的なソリューションを提供する。
P-GSVCは2次元ガウスプレートをベース層と連続的な拡張層に整理し、粗い微細な再構築を可能にする。
この階層表現を効果的に最適化するために,階層間のガウスを同時に更新し,それらの最適化軌道を整列させて,層間互換性と安定したプログレッシブ再構築を実現する共同学習戦略を提案する。
P-GSVCは、品質と解像度の両面でスケーラビリティをサポートしている。
実験の結果,映像のPSNRは最大1.9dB向上し,画像のPSNRは最大2.6dB改善できることがわかった。
プロジェクトページ:https://longanwang-cs.github.io/PGSVC-webpage/
関連論文リスト
- Contour Information Aware 2D Gaussian Splatting for Image Representation [0.0]
本稿では,Contour Information-Aware 2D Gaussian Splattingフレームワークを提案する。
提案手法は,既存の2DGS法と比較して,オブジェクトエッジ周辺の再現性が高い。
論文 参考訳(メタデータ) (2025-12-29T07:24:36Z) - Fast 2DGS: Efficient Image Representation with Deep Gaussian Prior [21.89104780995278]
Fast-2DGSは効率的なガウス画像表現のための軽量なフレームワークである。
本稿では,ガウスプリミティブの空間分布を捉えるための条件付きネットワークとして実装されたDeep Gaussian Priorを紹介する。
実験により、この非絡み合ったアーキテクチャは、1つの前方通過で高品質な再構築を実現し、次いで最小限の微調整を行うことが示された。
論文 参考訳(メタデータ) (2025-12-14T17:23:28Z) - 2D Gaussian Splatting with Semantic Alignment for Image Inpainting [46.266955851252504]
2次元ガウススプラッティングに基づく最初の画像インペイントフレームワークを提案する。
グローバルなセマンティック一貫性のために、事前訓練されたDINOモデルの特徴を取り入れる。
本手法は,定量的指標と知覚的品質の両面での競合性能を実現する。
論文 参考訳(メタデータ) (2025-09-02T05:12:52Z) - Versatile Video Tokenization with Generative 2D Gaussian Splatting [21.242557918885012]
ビデオトランスフォーマー(英: Video Transformer、GVT)は、2Dガウシアン・スプレイティング・ストラテジーをベースとした多用途ビデオトークンである。
GVTはベースライン・オブ・ザ・アーティカルなビデオ品質を実現し、動作認識においてMAGVIT-v2を上回っ、同等の圧縮性能を提供する。
論文 参考訳(メタデータ) (2025-08-15T03:16:45Z) - HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - GSVC: Efficient Video Representation and Compression Through 2D Gaussian Splatting [3.479384894190067]
本稿では,映像フレームを効果的に表現・圧縮できる2次元ガウススプレートの集合を学習するためのGSVCを提案する。
実験の結果,GSVCは最先端のビデオコーデックに匹敵する,良好な速度歪みトレードオフを実現することがわかった。
論文 参考訳(メタデータ) (2025-01-21T11:30:51Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - Context-Aware Video Reconstruction for Rolling Shutter Cameras [52.28710992548282]
本稿では,文脈対応のGSビデオ再構成アーキテクチャを提案する。
まず、2つのRSフレームの画素が共通のGSフレームに歪むように、左右の運動場を推定する。
そこで,両面閉塞マスクとともにGSフレーム合成を誘導し,高忠実度GSビデオフレームを生成するための改良手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T17:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。