論文の概要: Adaptive 3D Gaussian Splatting Video Streaming: Visual Saliency-Aware Tiling and Meta-Learning-Based Bitrate Adaptation
- arxiv url: http://arxiv.org/abs/2507.14454v1
- Date: Sat, 19 Jul 2025 03:00:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.895144
- Title: Adaptive 3D Gaussian Splatting Video Streaming: Visual Saliency-Aware Tiling and Meta-Learning-Based Bitrate Adaptation
- Title(参考訳): Adaptive 3D Gaussian Splatting Video Streaming: Visual Saliency-Aware Tiling and Meta-Learning-Based Bitrate Adaptation
- Authors: Han Gong, Qiyue Li, Jie Li, Zhi Liu,
- Abstract要約: 3D Splatting Video(3DGS)ストリーミングは、アカデミックと業界の両方で研究ホットスポットとして浮上している。
本研究では,空間的特徴と時間的特徴を統合した適応型3DGSタイリング手法を提案する。
また、ストリーミング中の3DGS表現における空間領域の劣化と結果の2Dレンダリング画像の品質を共同で評価する3DGSビデオの品質評価フレームワークについても紹介する。
- 参考スコア(独自算出の注目度): 9.779419462403144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian splatting video (3DGS) streaming has recently emerged as a research hotspot in both academia and industry, owing to its impressive ability to deliver immersive 3D video experiences. However, research in this area is still in its early stages, and several fundamental challenges, such as tiling, quality assessment, and bitrate adaptation, require further investigation. In this paper, we tackle these challenges by proposing a comprehensive set of solutions. Specifically, we propose an adaptive 3DGS tiling technique guided by saliency analysis, which integrates both spatial and temporal features. Each tile is encoded into versions possessing dedicated deformation fields and multiple quality levels for adaptive selection. We also introduce a novel quality assessment framework for 3DGS video that jointly evaluates spatial-domain degradation in 3DGS representations during streaming and the quality of the resulting 2D rendered images. Additionally, we develop a meta-learning-based adaptive bitrate algorithm specifically tailored for 3DGS video streaming, achieving optimal performance across varying network conditions. Extensive experiments demonstrate that our proposed approaches significantly outperform state-of-the-art methods.
- Abstract(参考訳): 3D Gaussian splatting video(3DGS)ストリーミングは、最近、学界と業界の両方で研究ホットスポットとして登場した。
しかし、この分野の研究はまだ初期段階であり、タイリング、品質評価、ビットレート適応といったいくつかの基本的な課題にはさらなる調査が必要である。
本稿では,包括的ソリューションを提案することによって,これらの課題に対処する。
具体的には,空間的特徴と時間的特徴を統合した適応型3DGSタイリング手法を提案する。
各タイルは、専用の変形フィールドと適応選択のための複数の品質レベルを持つバージョンにエンコードされる。
また、ストリーミング中の3DGS表現における空間領域の劣化と結果の2Dレンダリング画像の品質を共同で評価する3DGSビデオの品質評価フレームワークについても紹介する。
さらに,3DGSビデオストリーミングに適したメタラーニングに基づく適応ビットレートアルゴリズムを開発し,様々なネットワーク条件で最適な性能を実現する。
大規模な実験により,提案手法は最先端手法よりも大幅に優れていることが示された。
関連論文リスト
- Adaptive 3D Gaussian Splatting Video Streaming [28.283254336752602]
本稿では,3DGSボリュームビデオストリーミングのための革新的なフレームワークを提案する。
ハイブリット・サリエンシ・タイリングと差別化品質・モデリングを用いて、効率的なデータ圧縮と帯域幅変動への適応を実現する。
提案手法は,映像品質,圧縮効率,伝送速度など,様々な面で既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-07-19T01:45:24Z) - Learning from Streaming Video with Orthogonal Gradients [62.51504086522027]
本稿では,映像の連続的ストリームからの表現学習を自己指導的に行うという課題に対処する。
これは、トレーニング中にビデオが切り刻まれ、シャッフルされ、非冗長なバッチを生成する、ビデオ学習の標準的なアプローチとは異なる。
3つのタスクでシャッフルからシーケンシャルな学習に移行する際のパフォーマンスの低下を実演する。
論文 参考訳(メタデータ) (2025-04-02T17:59:57Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - HuGDiffusion: Generalizable Single-Image Human Rendering via 3D Gaussian Diffusion [50.02316409061741]
HuGDiffusionは、シングルビュー入力画像から人間の文字の新しいビュー合成(NVS)を実現するための学習パイプラインである。
本研究では,1つの画像から抽出したヒトの事前情報に基づいて,拡散に基づくフレームワークを用いて3DGS属性の集合を生成することを目的とする。
我々のHuGDiffusionは最先端の手法よりも優れた性能を示している。
論文 参考訳(メタデータ) (2025-01-25T01:00:33Z) - MVS-GS: High-Quality 3D Gaussian Splatting Mapping via Online Multi-View Stereo [9.740087094317735]
オンライン多視点ステレオ手法を用いた高品質な3DGSモデリングのための新しいフレームワークを提案する。
本手法は,局所時間窓から逐次フレームを用いてMVS深度を推定し,包括的深度改善手法を適用した。
実験の結果,本手法は最先端の高密度SLAM法より優れていた。
論文 参考訳(メタデータ) (2024-12-26T09:20:04Z) - SGSST: Scaling Gaussian Splatting StyleTransfer [10.994929376259007]
SGSST(Scaling Gaussian Splatting Style Transfer)は、事前訓練された3DGSシーンにスタイル転送を適用する最適化ベースの方法である。
我々は、SOS for Simultanely Optimized Scalesという大域的ニューラルネットワーク統計に基づく新しいマルチスケールロスが、超高解像度3Dシーンへのスタイル転送を可能にすることを実証した。
論文 参考訳(メタデータ) (2024-12-04T14:59:05Z) - SplatFormer: Point Transformer for Robust 3D Gaussian Splatting [18.911307036504827]
3D Gaussian Splatting (3DGS) は、近ごろ光現実的再構成を変換し、高い視覚的忠実度とリアルタイム性能を実現した。
レンダリング品質は、テストビューがトレーニング中に使用されるカメラアングルから逸脱したときに著しく低下し、没入型自由視点レンダリングとナビゲーションのアプリケーションにとって大きな課題となった。
SplatFormerは,ガウススプラット上での操作に特化して設計された最初の点変換器モデルである。
我々のモデルは、非常に斬新なビュー下でのレンダリング品質を著しく改善し、これらの難易度シナリオにおける最先端のパフォーマンスを達成し、様々な3DGS正規化技術、スパースビュー合成に適したマルチシーンモデル、拡散を上回ります。
論文 参考訳(メタデータ) (2024-11-10T08:23:27Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - Improving 3D Object Detection with Channel-wise Transformer [58.668922561622466]
我々は手作りの最小限の設計で2段階の3Dオブジェクト検出フレームワーク(CT3D)を提案する。
CT3Dは、提案対応の埋め込みとチャンネルワイドコンテキストアグリゲーションを同時に行う。
これはKITTIテスト3D検出ベンチマークで中等車カテゴリーで81.77%のAPを達成した。
論文 参考訳(メタデータ) (2021-08-23T02:03:40Z) - 2D or not 2D? Adaptive 3D Convolution Selection for Efficient Video
Recognition [84.697097472401]
Ada3Dは、インスタンス固有の3D利用ポリシーを学び、3Dネットワークで使用するフレームと畳み込み層を決定する条件付き計算フレームワークです。
本手法は,最先端の3dモデルと同様の精度を実現し,異なるデータセット間での計算量を20%-50%削減できることを実証する。
論文 参考訳(メタデータ) (2020-12-29T21:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。