論文の概要: SRSplat: Feed-Forward Super-Resolution Gaussian Splatting from Sparse Multi-View Images
- arxiv url: http://arxiv.org/abs/2511.12040v1
- Date: Sat, 15 Nov 2025 05:17:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.526918
- Title: SRSplat: Feed-Forward Super-Resolution Gaussian Splatting from Sparse Multi-View Images
- Title(参考訳): SRSplat:スパース多視点画像からのフィードフォワード超解像ガウス散乱
- Authors: Xinyuan Hu, Changyue Shi, Chuxiao Yang, Minghao Chen, Jiajun Ding, Tao Wei, Chen Wei, Zhou Yu, Min Tan,
- Abstract要約: 少数のLRビューから高解像度の3Dシーンを再構成するフィードフォワードフレームワークである textbfSRSplat を提案する。
テクスチャ情報の欠如を補うために,外部の質の高い基準画像と内部テクスチャの手がかりを共同で活用する。
- 参考スコア(独自算出の注目度): 22.87137082795346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feed-forward 3D reconstruction from sparse, low-resolution (LR) images is a crucial capability for real-world applications, such as autonomous driving and embodied AI. However, existing methods often fail to recover fine texture details. This limitation stems from the inherent lack of high-frequency information in LR inputs. To address this, we propose \textbf{SRSplat}, a feed-forward framework that reconstructs high-resolution 3D scenes from only a few LR views. Our main insight is to compensate for the deficiency of texture information by jointly leveraging external high-quality reference images and internal texture cues. We first construct a scene-specific reference gallery, generated for each scene using Multimodal Large Language Models (MLLMs) and diffusion models. To integrate this external information, we introduce the \textit{Reference-Guided Feature Enhancement (RGFE)} module, which aligns and fuses features from the LR input images and their reference twin image. Subsequently, we train a decoder to predict the Gaussian primitives using the multi-view fused feature obtained from \textit{RGFE}. To further refine predicted Gaussian primitives, we introduce \textit{Texture-Aware Density Control (TADC)}, which adaptively adjusts Gaussian density based on the internal texture richness of the LR inputs. Extensive experiments demonstrate that our SRSplat outperforms existing methods on various datasets, including RealEstate10K, ACID, and DTU, and exhibits strong cross-dataset and cross-resolution generalization capabilities.
- Abstract(参考訳): スパース、低解像度(LR)画像からのフィードフォワード3D再構成は、自律運転や組込みAIのような現実世界のアプリケーションにとって重要な機能である。
しかし、既存の手法では細かいテクスチャの詳細を回復できないことが多い。
この制限は、LR入力における高周波情報の欠如に起因する。
そこで本研究では,少数のLRビューから高解像度の3Dシーンを再構成するフィードフォワードフレームワークである「textbf{SRSplat}」を提案する。
テクスチャ情報の欠如を補うために,外部の質の高い基準画像と内部テクスチャの手がかりを共同で活用することで,テクスチャ情報の不足を補う。
まず,MLLM(Multimodal Large Language Models)と拡散モデルを用いて,シーン毎に生成されたシーン固有の参照ギャラリーを構築する。
この外部情報を統合するために、LR入力画像と参照双対画像から特徴を整列し、融合する \textit{Reference-Guided Feature Enhancement (RGFE) モジュールを導入する。
次にデコーダを訓練し, \textit{RGFE} から得られた多視点融合機能を用いてガウス原始体を予測する。
予測されたガウス的プリミティブをさらに洗練するために、LR入力の内部テクスチャリッチネスに基づいてガウス的密度を適応的に調整する \textit{Texture-Aware Density Control (TADC) を導入する。
我々のSRSplatは、RealEstate10K、ACID、DTUなど、さまざまなデータセット上の既存の手法よりも優れており、強力なクロスデータセットとクロスレゾリューションの一般化能力を示しています。
関連論文リスト
- MVGSR: Multi-View Consistent 3D Gaussian Super-Resolution via Epipolar Guidance [13.050002358238793]
MRGSR(Multi-View Consistent 3D Gaussian Splatting Super-Resolution)を紹介する。
MVGSRは3DGSレンダリングのためのマルチビュー情報と高周波の詳細の統合と一貫性の向上に重点を置いている。
本手法は,オブジェクト中心およびシーンレベルの3DGS SRベンチマークにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-12-17T03:23:12Z) - SplatSuRe: Selective Super-Resolution for Multi-view Consistent 3D Gaussian Splatting [50.36978600976209]
自然な戦略は、低解像度(LR)入力ビューに超解像(SR)を適用することであるが、各イメージを独立に強化することは、マルチビューの不整合を導入する。
高周波監視を欠いたアンサンプ領域のみにSRコンテンツを選択的に適用する手法であるSplatSuReを提案する。
タンク&テンプル、ディープブレンディング、Mip-NeRF 360にまたがって、私たちのアプローチは、忠実さと知覚的品質の両方においてベースラインを超えています。
論文 参考訳(メタデータ) (2025-12-01T20:08:39Z) - IntrinsiX: High-Quality PBR Generation using Image Priors [49.90007540430264]
IntrinsiXはテキスト記述から高品質な内在画像を生成する新しい手法である。
シーンライティングを内蔵した既存のテキスト・ツー・イメージモデルとは対照的に,本手法では物理ベースのレンダリング(PBR)マップを推定する。
論文 参考訳(メタデータ) (2025-04-01T17:47:48Z) - LLGS: Unsupervised Gaussian Splatting for Image Enhancement and Reconstruction in Pure Dark Environment [18.85235185556243]
本稿では3次元ガウス散乱に基づく教師なし多視点立体視システムを提案する。
本システムは、シーンを再構成しながら、低照度環境における画像の高精細化を目的としている。
実世界のデータセットを用いて行った実験により、我々のシステムは低照度化と3次元ガウススプラッティングの両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-03-24T13:05:05Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - Enhanced Super-Resolution Training via Mimicked Alignment for Real-World Scenes [51.92255321684027]
トレーニング中、LR入力とHR画像の整列により、誤調整問題を緩和する新しいプラグアンドプレイモジュールを提案する。
具体的には,従来のLR試料の特徴を保ちながらHRと整合する新しいLR試料を模倣する。
本手法を合成および実世界のデータセット上で総合的に評価し,SRモデルのスペクトル間での有効性を実証した。
論文 参考訳(メタデータ) (2024-10-07T18:18:54Z) - MVGamba: Unify 3D Content Generation as State Space Sequence Modeling [150.80564081817786]
本稿では,多視点ガウス再構成器を備えた一般軽量ガウス再構成モデルMVGambaを紹介する。
オフザディテールのマルチビュー拡散モデルを統合することで、MVGambaは単一の画像、スパース画像、テキストプロンプトから3D生成タスクを統一する。
実験により、MVGambaは、すべての3Dコンテンツ生成シナリオで最先端のベースラインを約0.1タイムのモデルサイズで上回ります。
論文 参考訳(メタデータ) (2024-06-10T15:26:48Z) - SRGS: Super-Resolution 3D Gaussian Splatting [14.26021476067791]
本稿では,高分解能(HR)空間における最適化を実現するために,超解像3Dガウススティング(SRGS)を提案する。
サブピクセル制約はHR空間における視点の増大のために導入され、多重低解像度(LR)ビューのサブピクセル・クロスビュー情報を利用する。
MIP-NeRF 360 や Tanks & Temples のような挑戦的なデータセットにおいて,HRNVS のレンダリング品質は LR 入力のみで向上する。
論文 参考訳(メタデータ) (2024-04-16T06:58:30Z) - Towards Real-World Burst Image Super-Resolution: Benchmark and Method [93.73429028287038]
本稿では,複数のフレームから画像の詳細を忠実に再構成する大規模リアルタイムバースト超解像データセットであるRealBSRを確立する。
また,FBAnet(Federated Burst Affinity Network)を導入し,実世界の画像劣化下での画像間の非自明な画素幅の変位について検討する。
論文 参考訳(メタデータ) (2023-09-09T14:11:37Z) - Reference-based Image Super-Resolution with Deformable Attention
Transformer [62.71769634254654]
RefSRは、補助参照(Ref)画像を超解像低解像度(LR)画像に活用することを目的としている。
本稿では,複数のスケールを持つ変形可能なアテンション変換器,すなわちDATSRを提案する。
DATSRがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-07-25T07:07:00Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。