論文の概要: MVGSR: Multi-View Consistent 3D Gaussian Super-Resolution via Epipolar Guidance
- arxiv url: http://arxiv.org/abs/2512.15048v1
- Date: Wed, 17 Dec 2025 03:23:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.843762
- Title: MVGSR: Multi-View Consistent 3D Gaussian Super-Resolution via Epipolar Guidance
- Title(参考訳): MVGSR: エピポーラ誘導による多視点3次元ガウス超解像
- Authors: Kaizhe Zhang, Shinan Chen, Qian Zhao, Weizhan Zhang, Caixia Yan, Yudeng Xin,
- Abstract要約: MRGSR(Multi-View Consistent 3D Gaussian Splatting Super-Resolution)を紹介する。
MVGSRは3DGSレンダリングのためのマルチビュー情報と高周波の詳細の統合と一貫性の向上に重点を置いている。
本手法は,オブジェクト中心およびシーンレベルの3DGS SRベンチマークにおいて,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 13.050002358238793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scenes reconstructed by 3D Gaussian Splatting (3DGS) trained on low-resolution (LR) images are unsuitable for high-resolution (HR) rendering. Consequently, a 3DGS super-resolution (SR) method is needed to bridge LR inputs and HR rendering. Early 3DGS SR methods rely on single-image SR networks, which lack cross-view consistency and fail to fuse complementary information across views. More recent video-based SR approaches attempt to address this limitation but require strictly sequential frames, limiting their applicability to unstructured multi-view datasets. In this work, we introduce Multi-View Consistent 3D Gaussian Splatting Super-Resolution (MVGSR), a framework that focuses on integrating multi-view information for 3DGS rendering with high-frequency details and enhanced consistency. We first propose an Auxiliary View Selection Method based on camera poses, making our method adaptable for arbitrarily organized multi-view datasets without the need of temporal continuity or data reordering. Furthermore, we introduce, for the first time, an epipolar-constrained multi-view attention mechanism into 3DGS SR, which serves as the core of our proposed multi-view SR network. This design enables the model to selectively aggregate consistent information from auxiliary views, enhancing the geometric consistency and detail fidelity of 3DGS representations. Extensive experiments demonstrate that our method achieves state-of-the-art performance on both object-centric and scene-level 3DGS SR benchmarks.
- Abstract(参考訳): 低解像度(LR)画像で訓練された3Dガウススティング(3DGS)で再構成されたシーンは高解像度(HR)レンダリングには適さない。
そのため、LR入力とHRレンダリングをブリッジするために3DGS超解像(SR)法が必要である。
初期の3DGSのSR手法は、ビュー間の一貫性が欠如し、ビュー間で補完的な情報を融合することができない、単一イメージのSRネットワークに依存していた。
より最近のビデオベースのSRアプローチでは、この制限に対処するが、厳密なシーケンシャルフレームを必要とし、非構造化マルチビューデータセットに適用性を制限する。
本稿では,3DGSレンダリングのためのマルチビュー情報と高頻度の詳細情報の統合と一貫性向上を目的としたフレームワークであるMVGSR(Multi-View Consistent 3D Gaussian Splatting Super-Resolution)を紹介する。
まず,カメラのポーズに基づく補助ビュー選択手法を提案し,時間的連続性やデータの並べ替えを必要とせず,任意に整理された多視点データセットに適用できるようにした。
さらに,提案するマルチビューSRネットワークのコアとなる3DGS SRに,初めてエピポーラ制約付きマルチビューアテンション機構を導入する。
この設計により、補助的なビューから一貫した情報を選択的に集約し、3DGS表現の幾何的一貫性と詳細忠実度を高めることができる。
大規模な実験により,本手法はオブジェクト中心とシーンレベルの3DGS SRベンチマークの両方で最先端の性能を実現することが示された。
関連論文リスト
- SplatSuRe: Selective Super-Resolution for Multi-view Consistent 3D Gaussian Splatting [50.36978600976209]
自然な戦略は、低解像度(LR)入力ビューに超解像(SR)を適用することであるが、各イメージを独立に強化することは、マルチビューの不整合を導入する。
高周波監視を欠いたアンサンプ領域のみにSRコンテンツを選択的に適用する手法であるSplatSuReを提案する。
タンク&テンプル、ディープブレンディング、Mip-NeRF 360にまたがって、私たちのアプローチは、忠実さと知覚的品質の両方においてベースラインを超えています。
論文 参考訳(メタデータ) (2025-12-01T20:08:39Z) - SRSplat: Feed-Forward Super-Resolution Gaussian Splatting from Sparse Multi-View Images [22.87137082795346]
少数のLRビューから高解像度の3Dシーンを再構成するフィードフォワードフレームワークである textbfSRSplat を提案する。
テクスチャ情報の欠如を補うために,外部の質の高い基準画像と内部テクスチャの手がかりを共同で活用する。
論文 参考訳(メタデータ) (2025-11-15T05:17:44Z) - BasicAVSR: Arbitrary-Scale Video Super-Resolution via Image Priors and Enhanced Motion Compensation [70.27358326228399]
任意スケールビデオ超解像(AVSR)のためのベーシックAVSRを提案する。
AVSRは、ビデオフレームの解像度、潜在的に様々なスケーリング要素を強化することを目的としている。
超高分解能, 一般化能力, 推論速度の点で, BasicAVSR は既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-10-30T05:08:45Z) - RobustGS: Unified Boosting of Feedforward 3D Gaussian Splatting under Low-Quality Conditions [67.48495052903534]
本稿では,汎用的で効率的なマルチビュー機能拡張モジュールRobustGSを提案する。
各種の有害撮像条件下でのフィードフォワード3DGS法のロバスト性を大幅に向上させる。
RobustGSモジュールはプラグイン・アンド・プレイ方式で既存の事前訓練パイプラインにシームレスに統合できる。
論文 参考訳(メタデータ) (2025-08-05T04:50:29Z) - SuperGS: Consistent and Detailed 3D Super-Resolution Scene Reconstruction via Gaussian Splatting [6.309174895120047]
3D Gaussian Splatting (3DGS)は、新しいビュー合成(NVS)に優れ、リアルタイムレンダリング機能と優れた品質を備えている。
しかし、低解像度の入力ビューから派生したプリミティブの粗い性質のため、高解像度の新規ビュー合成(HRNVS)の課題に直面している。
2段階の粗大なトレーニングフレームワークで設計したScaffold-GSの拡張であるSuperGSを提案する。
論文 参考訳(メタデータ) (2025-05-24T11:33:57Z) - CrossView-GS: Cross-view Gaussian Splatting For Large-scale Scene Reconstruction [5.528874948395173]
マルチブランチ構築と融合に基づく大規模シーン再構築のための新しいクロスビューガウス分割法を提案する。
本手法は,最先端の手法と比較して,新規なビュー合成における優れた性能を実現する。
論文 参考訳(メタデータ) (2025-01-03T08:24:59Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。