論文の概要: SR3R: Rethinking Super-Resolution 3D Reconstruction With Feed-Forward Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2602.24020v1
- Date: Fri, 27 Feb 2026 13:45:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.4529
- Title: SR3R: Rethinking Super-Resolution 3D Reconstruction With Feed-Forward Gaussian Splatting
- Title(参考訳): SR3R:フィードフォワードガウスによる超解像3D再構成
- Authors: Xiang Feng, Xiangbo Wang, Tieshi Zhong, Chengkai Wang, Yiting Zhao, Tianxiang Xu, Zhenzhong Kuang, Feiwei Qin, Xuefei Yin, Yanming Zhu,
- Abstract要約: 3次元超解像(3DSR)は、低解像度(LR)マルチビュー画像から高解像度(HR)3Dシーンを再構成することを目的としている。
既存の手法は高密度LR入力とシーンごとの最適化に依存している。
フィードフォワードフレームワークであるSR3Rを導入し、スパースLRビューからHR 3DGS表現を直接予測する。
- 参考スコア(独自算出の注目度): 13.122286465610323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D super-resolution (3DSR) aims to reconstruct high-resolution (HR) 3D scenes from low-resolution (LR) multi-view images. Existing methods rely on dense LR inputs and per-scene optimization, which restricts the high-frequency priors for constructing HR 3D Gaussian Splatting (3DGS) to those inherited from pretrained 2D super-resolution (2DSR) models. This severely limits reconstruction fidelity, cross-scene generalization, and real-time usability. We propose to reformulate 3DSR as a direct feed-forward mapping from sparse LR views to HR 3DGS representations, enabling the model to autonomously learn 3D-specific high-frequency geometry and appearance from large-scale, multi-scene data. This fundamentally changes how 3DSR acquires high-frequency knowledge and enables robust generalization to unseen scenes. Specifically, we introduce SR3R, a feed-forward framework that directly predicts HR 3DGS representations from sparse LR views via the learned mapping network. To further enhance reconstruction fidelity, we introduce Gaussian offset learning and feature refinement, which stabilize reconstruction and sharpen high-frequency details. SR3R is plug-and-play and can be paired with any feed-forward 3DGS reconstruction backbone: the backbone provides an LR 3DGS scaffold, and SR3R upscales it to an HR 3DGS. Extensive experiments across three 3D benchmarks demonstrate that SR3R surpasses state-of-the-art (SOTA) 3DSR methods and achieves strong zero-shot generalization, even outperforming SOTA per-scene optimization methods on unseen scenes.
- Abstract(参考訳): 3次元超解像(3DSR)は、低解像度(LR)マルチビュー画像から高解像度(HR)3Dシーンを再構成することを目的としている。
既存の手法は、高密度LR入力とシーンごとの最適化に依存しており、HR 3Dガウススティング(3DGS)を事前訓練された2D超解像(2DSR)モデルから継承したものに制限する。
これは、再構築の忠実さ、クロスシーンの一般化、リアルタイムのユーザビリティを著しく制限する。
本稿では,3DSR を疎LR ビューからHR 3DGS 表現への直接的フィードフォワードマッピングとして再構成し,大規模マルチシーンデータから3D 特有の高周波幾何学と出現を自律的に学習することを可能にすることを提案する。
これは3DSRが高周波の知識をいかに獲得するかを根本的に変え、堅牢な一般化を可能にしている。
具体的には、学習したマッピングネットワークを介して、粗いLRビューからHR 3DGS表現を直接予測するフィードフォワードフレームワークSR3Rを紹介する。
再構成精度をさらに高めるため, ガウスオフセット学習と特徴改善を導入し, 再構成を安定化し, 高周波細部を鋭くする。
SR3Rはプラグ&プレイで、任意のフィードフォワード3DGS再構築バックボーンと組み合わせることができる:バックボーンはLR3DGSの足場を提供し、SR3RはHR3DGSにアップグレードする。
3つの3Dベンチマークによる大規模な実験により、SR3Rは最先端(SOTA)の3DSR手法を超越し、強力なゼロショットの一般化を実現している。
関連論文リスト
- MVGSR: Multi-View Consistent 3D Gaussian Super-Resolution via Epipolar Guidance [13.050002358238793]
MRGSR(Multi-View Consistent 3D Gaussian Splatting Super-Resolution)を紹介する。
MVGSRは3DGSレンダリングのためのマルチビュー情報と高周波の詳細の統合と一貫性の向上に重点を置いている。
本手法は,オブジェクト中心およびシーンレベルの3DGS SRベンチマークにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-12-17T03:23:12Z) - SplatSuRe: Selective Super-Resolution for Multi-view Consistent 3D Gaussian Splatting [50.36978600976209]
自然な戦略は、低解像度(LR)入力ビューに超解像(SR)を適用することであるが、各イメージを独立に強化することは、マルチビューの不整合を導入する。
高周波監視を欠いたアンサンプ領域のみにSRコンテンツを選択的に適用する手法であるSplatSuReを提案する。
タンク&テンプル、ディープブレンディング、Mip-NeRF 360にまたがって、私たちのアプローチは、忠実さと知覚的品質の両方においてベースラインを超えています。
論文 参考訳(メタデータ) (2025-12-01T20:08:39Z) - Bridging Diffusion Models and 3D Representations: A 3D Consistent Super-Resolution Framework [51.20764440735875]
提案する3次元超解像(3DSR)は,新しい3次元ガウス散乱に基づく超解像フレームワークである。
3DSRは、明示的な3Dガウススプレイティングベースのシーン表現を使用することで、ビュー間の3D一貫性を促進する。
MipNeRF360およびLLFFデータ上で3DSRを評価し,視覚的に魅力的な高分解能な結果が得られることを示した。
論文 参考訳(メタデータ) (2025-08-06T05:12:02Z) - SparSplat: Fast Multi-View Reconstruction with Generalizable 2D Gaussian Splatting [7.9061560322289335]
スパースビュー画像から3次元形状再構成とNVSを行うために、フィードフォワード方式で2DGS表面パラメータを回帰するMVSベースの学習を提案する。
結果として得られるパイプラインは、DTU 3D再構築ベンチマークにおける最先端の成果を、最先端のNVSと同様に、チャンファーから地底までの距離で達成する。
論文 参考訳(メタデータ) (2025-05-04T16:33:47Z) - GaussHDR: High Dynamic Range Gaussian Splatting via Learning Unified 3D and 2D Local Tone Mapping [17.42021596542516]
本稿では,3次元スプラッティングによる3次元局所トーンマッピングと2次元局所トーンマッピングを一体化するガウスについて述べる。
次に,3次元および2次元局所トーンマッピングのLDR結果の組み合わせを損失レベルで提案する。
論文 参考訳(メタデータ) (2025-03-13T08:07:43Z) - S3R-GS: Streamlining the Pipeline for Large-Scale Street Scene Reconstruction [58.37746062258149]
3D Gaussian Splatting(3DGS)は、3D再構成の分野を変え、素晴らしいレンダリング品質とスピードを実現した。
既存の手法では、シーンサイズが大きくなるにつれて、ビューポイント当たりの再生コストが急速に増大する。
大規模なストリートシーン再構築のためのパイプラインをストリーム化する3DGSフレームワークであるS3R-GSを提案する。
論文 参考訳(メタデータ) (2025-03-11T09:37:13Z) - StructGS: Adaptive Spherical Harmonics and Rendering Enhancements for Superior 3D Gaussian Splatting [5.759434800012218]
StructGS は 3D Gaussian Splatting (3DGS) を強化し、3D再構成における新規なビュー合成を改善するフレームワークである。
我々のフレームワークは計算冗長性を著しく低減し、ディテールキャプチャを強化し、低解像度入力からの高解像度レンダリングをサポートする。
論文 参考訳(メタデータ) (2025-03-09T05:39:44Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - From Chaos to Clarity: 3DGS in the Dark [28.232432162734437]
未処理の生画像のノイズは、3次元シーン表現の精度を損なう。
3D Gaussian Splatting (3DGS)はこのノイズに特に影響を受けやすい。
ノイズの多い生画像からHDR 3DGSを再構成するための,新しい自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-12T15:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。