論文の概要: SRSplat: Feed-Forward Super-Resolution Gaussian Splatting from Sparse Multi-View Images
- arxiv url: http://arxiv.org/abs/2511.12040v1
- Date: Sat, 15 Nov 2025 05:17:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.526918
- Title: SRSplat: Feed-Forward Super-Resolution Gaussian Splatting from Sparse Multi-View Images
- Title(参考訳): SRSplat:スパース多視点画像からのフィードフォワード超解像ガウス散乱
- Authors: Xinyuan Hu, Changyue Shi, Chuxiao Yang, Minghao Chen, Jiajun Ding, Tao Wei, Chen Wei, Zhou Yu, Min Tan,
- Abstract要約: 少数のLRビューから高解像度の3Dシーンを再構成するフィードフォワードフレームワークである textbfSRSplat を提案する。
テクスチャ情報の欠如を補うために,外部の質の高い基準画像と内部テクスチャの手がかりを共同で活用する。
- 参考スコア(独自算出の注目度): 22.87137082795346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feed-forward 3D reconstruction from sparse, low-resolution (LR) images is a crucial capability for real-world applications, such as autonomous driving and embodied AI. However, existing methods often fail to recover fine texture details. This limitation stems from the inherent lack of high-frequency information in LR inputs. To address this, we propose \textbf{SRSplat}, a feed-forward framework that reconstructs high-resolution 3D scenes from only a few LR views. Our main insight is to compensate for the deficiency of texture information by jointly leveraging external high-quality reference images and internal texture cues. We first construct a scene-specific reference gallery, generated for each scene using Multimodal Large Language Models (MLLMs) and diffusion models. To integrate this external information, we introduce the \textit{Reference-Guided Feature Enhancement (RGFE)} module, which aligns and fuses features from the LR input images and their reference twin image. Subsequently, we train a decoder to predict the Gaussian primitives using the multi-view fused feature obtained from \textit{RGFE}. To further refine predicted Gaussian primitives, we introduce \textit{Texture-Aware Density Control (TADC)}, which adaptively adjusts Gaussian density based on the internal texture richness of the LR inputs. Extensive experiments demonstrate that our SRSplat outperforms existing methods on various datasets, including RealEstate10K, ACID, and DTU, and exhibits strong cross-dataset and cross-resolution generalization capabilities.
- Abstract(参考訳): スパース、低解像度(LR)画像からのフィードフォワード3D再構成は、自律運転や組込みAIのような現実世界のアプリケーションにとって重要な機能である。
しかし、既存の手法では細かいテクスチャの詳細を回復できないことが多い。
この制限は、LR入力における高周波情報の欠如に起因する。
そこで本研究では,少数のLRビューから高解像度の3Dシーンを再構成するフィードフォワードフレームワークである「textbf{SRSplat}」を提案する。
テクスチャ情報の欠如を補うために,外部の質の高い基準画像と内部テクスチャの手がかりを共同で活用することで,テクスチャ情報の不足を補う。
まず,MLLM(Multimodal Large Language Models)と拡散モデルを用いて,シーン毎に生成されたシーン固有の参照ギャラリーを構築する。
この外部情報を統合するために、LR入力画像と参照双対画像から特徴を整列し、融合する \textit{Reference-Guided Feature Enhancement (RGFE) モジュールを導入する。
次にデコーダを訓練し, \textit{RGFE} から得られた多視点融合機能を用いてガウス原始体を予測する。
予測されたガウス的プリミティブをさらに洗練するために、LR入力の内部テクスチャリッチネスに基づいてガウス的密度を適応的に調整する \textit{Texture-Aware Density Control (TADC) を導入する。
我々のSRSplatは、RealEstate10K、ACID、DTUなど、さまざまなデータセット上の既存の手法よりも優れており、強力なクロスデータセットとクロスレゾリューションの一般化能力を示しています。
関連論文リスト
- IntrinsiX: High-Quality PBR Generation using Image Priors [49.90007540430264]
IntrinsiXはテキスト記述から高品質な内在画像を生成する新しい手法である。
シーンライティングを内蔵した既存のテキスト・ツー・イメージモデルとは対照的に,本手法では物理ベースのレンダリング(PBR)マップを推定する。
論文 参考訳(メタデータ) (2025-04-01T17:47:48Z) - FreeSplatter: Pose-free Gaussian Splatting for Sparse-view 3D Reconstruction [69.63414788486578]
FreeSplatterはスケーラブルなフィードフォワードフレームワークで、キャリブレーションされていないスパースビュー画像から高品質な3Dガウシアンを生成する。
当社のアプローチでは,自己注意ブロックが情報交換を容易にする合理化トランスフォーマーアーキテクチャを採用している。
包括的データセットに基づいて,オブジェクト中心とシーンレベルの再構築のための2つの特殊な変種を開発する。
論文 参考訳(メタデータ) (2024-12-12T18:52:53Z) - Enhanced Super-Resolution Training via Mimicked Alignment for Real-World Scenes [51.92255321684027]
トレーニング中、LR入力とHR画像の整列により、誤調整問題を緩和する新しいプラグアンドプレイモジュールを提案する。
具体的には,従来のLR試料の特徴を保ちながらHRと整合する新しいLR試料を模倣する。
本手法を合成および実世界のデータセット上で総合的に評価し,SRモデルのスペクトル間での有効性を実証した。
論文 参考訳(メタデータ) (2024-10-07T18:18:54Z) - SRGS: Super-Resolution 3D Gaussian Splatting [14.26021476067791]
本稿では,高分解能(HR)空間における最適化を実現するために,超解像3Dガウススティング(SRGS)を提案する。
サブピクセル制約はHR空間における視点の増大のために導入され、多重低解像度(LR)ビューのサブピクセル・クロスビュー情報を利用する。
MIP-NeRF 360 や Tanks & Temples のような挑戦的なデータセットにおいて,HRNVS のレンダリング品質は LR 入力のみで向上する。
論文 参考訳(メタデータ) (2024-04-16T06:58:30Z) - Towards Real-World Burst Image Super-Resolution: Benchmark and Method [93.73429028287038]
本稿では,複数のフレームから画像の詳細を忠実に再構成する大規模リアルタイムバースト超解像データセットであるRealBSRを確立する。
また,FBAnet(Federated Burst Affinity Network)を導入し,実世界の画像劣化下での画像間の非自明な画素幅の変位について検討する。
論文 参考訳(メタデータ) (2023-09-09T14:11:37Z) - Reference-based Image Super-Resolution with Deformable Attention
Transformer [62.71769634254654]
RefSRは、補助参照(Ref)画像を超解像低解像度(LR)画像に活用することを目的としている。
本稿では,複数のスケールを持つ変形可能なアテンション変換器,すなわちDATSRを提案する。
DATSRがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す実験を行った。
論文 参考訳(メタデータ) (2022-07-25T07:07:00Z) - Deep Burst Super-Resolution [165.90445859851448]
バースト超解像タスクのための新しいアーキテクチャを提案する。
我々のネットワークは複数のノイズRAW画像を入力として取り出し、出力として分解された超解像RGB画像を生成する。
実世界のデータのトレーニングと評価を可能にするため,BurstSRデータセットも導入する。
論文 参考訳(メタデータ) (2021-01-26T18:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。