論文の概要: SplatSuRe: Selective Super-Resolution for Multi-view Consistent 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2512.02172v1
- Date: Mon, 01 Dec 2025 20:08:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.58987
- Title: SplatSuRe: Selective Super-Resolution for Multi-view Consistent 3D Gaussian Splatting
- Title(参考訳): SplatSuRe: 多視点連続3次元ガウススプラッティングのための選択的超解法
- Authors: Pranav Asthana, Alex Hanson, Allen Tu, Tom Goldstein, Matthias Zwicker, Amitabh Varshney,
- Abstract要約: 自然な戦略は、低解像度(LR)入力ビューに超解像(SR)を適用することであるが、各イメージを独立に強化することは、マルチビューの不整合を導入する。
高周波監視を欠いたアンサンプ領域のみにSRコンテンツを選択的に適用する手法であるSplatSuReを提案する。
タンク&テンプル、ディープブレンディング、Mip-NeRF 360にまたがって、私たちのアプローチは、忠実さと知覚的品質の両方においてベースラインを超えています。
- 参考スコア(独自算出の注目度): 50.36978600976209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) enables high-quality novel view synthesis, motivating interest in generating higher-resolution renders than those available during training. A natural strategy is to apply super-resolution (SR) to low-resolution (LR) input views, but independently enhancing each image introduces multi-view inconsistencies, leading to blurry renders. Prior methods attempt to mitigate these inconsistencies through learned neural components, temporally consistent video priors, or joint optimization on LR and SR views, but all uniformly apply SR across every image. In contrast, our key insight is that close-up LR views may contain high-frequency information for regions also captured in more distant views, and that we can use the camera pose relative to scene geometry to inform where to add SR content. Building from this insight, we propose SplatSuRe, a method that selectively applies SR content only in undersampled regions lacking high-frequency supervision, yielding sharper and more consistent results. Across Tanks & Temples, Deep Blending and Mip-NeRF 360, our approach surpasses baselines in both fidelity and perceptual quality. Notably, our gains are most significant in localized foreground regions where higher detail is desired.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は高品質なノベルビュー合成を可能にし、トレーニング中に利用できるものよりも高解像度のレンダリングを生成することへの関心を動機付けている。
自然な戦略は、低解像度(LR)入力ビューに超解像(SR)を適用することであるが、各画像の独立性の向上はマルチビューの不整合を導入し、ぼやけたレンダリングをもたらす。
従来の手法では、学習したニューラルネットワークコンポーネント、時間的に一貫したビデオプリエント、LRとSRのビューでの共同最適化などを通じて、これらの不整合を緩和しようとするが、すべての画像にわたってSRを均一に適用する。
対照的に、我々の重要な洞察は、クローズアップLRビューには、より遠方からの視点で捉えた領域の高周波情報が含まれており、カメラのポーズをシーンジオメトリと比較することで、SRコンテンツをどこに追加すべきかを知らせることができるということである。
この知見から, 高頻度の監視を欠いたアンサンプ領域のみにSRコンテンツを選択的に適用し, より鋭く, より一貫した結果を得る手法であるSplatSuReを提案する。
タンク&テンプル、ディープブレンディング、Mip-NeRF 360にまたがって、私たちのアプローチは、忠実さと知覚的品質の両方においてベースラインを超えています。
とくに、より詳細が求められている前景地域において、我々の利益は最も重要である。
関連論文リスト
- SRSplat: Feed-Forward Super-Resolution Gaussian Splatting from Sparse Multi-View Images [22.87137082795346]
少数のLRビューから高解像度の3Dシーンを再構成するフィードフォワードフレームワークである textbfSRSplat を提案する。
テクスチャ情報の欠如を補うために,外部の質の高い基準画像と内部テクスチャの手がかりを共同で活用する。
論文 参考訳(メタデータ) (2025-11-15T05:17:44Z) - Generalized and Efficient 2D Gaussian Splatting for Arbitrary-scale Super-Resolution [10.074968164380314]
Inlicit Neural Representations (INR) は任意スケール超解法 (ASR) に成功している
しかし、INRベースのモデルは多層パーセプトロンモジュールを何度もクエリし、各クエリにピクセルを描画する必要がある。
GSは、3Dタスクの視覚的品質とレンダリング速度の両方においてINRよりも利点を示しており、GSがASRタスクに使えるかどうかを探求する動機となっている。
論文 参考訳(メタデータ) (2025-01-12T15:14:58Z) - FreeSplat: Generalizable 3D Gaussian Splatting Towards Free-View Synthesis of Indoor Scenes [50.534213038479926]
FreeSplatは、長いシーケンス入力から自由視点合成まで、幾何学的に一貫した3Dシーンを再構築することができる。
ビュー数に関係なく、広いビュー範囲にわたる堅牢なビュー合成を実現するための、シンプルで効果的なフリービュートレーニング戦略を提案する。
論文 参考訳(メタデータ) (2024-05-28T08:40:14Z) - SRGS: Super-Resolution 3D Gaussian Splatting [14.26021476067791]
本稿では,高分解能(HR)空間における最適化を実現するために,超解像3Dガウススティング(SRGS)を提案する。
サブピクセル制約はHR空間における視点の増大のために導入され、多重低解像度(LR)ビューのサブピクセル・クロスビュー情報を利用する。
MIP-NeRF 360 や Tanks & Temples のような挑戦的なデータセットにおいて,HRNVS のレンダリング品質は LR 入力のみで向上する。
論文 参考訳(メタデータ) (2024-04-16T06:58:30Z) - CiaoSR: Continuous Implicit Attention-in-Attention Network for
Arbitrary-Scale Image Super-Resolution [158.2282163651066]
本稿ではCiaoSRと呼ばれる連続的な暗黙の注意-注意ネットワークを提案する。
我々は、周辺地域の特徴のアンサンブル重みを学習するために、暗黙の注意ネットワークを明示的に設計する。
我々は、この暗黙の注意ネットワークにスケールアウェアの注意を埋め込んで、追加の非ローカル情報を活用する。
論文 参考訳(メタデータ) (2022-12-08T15:57:46Z) - Best-Buddy GANs for Highly Detailed Image Super-Resolution [71.13466303340192]
我々は,低分解能(LR)入力に基づいて高分解能(HR)画像を生成する単一画像超解像(SISR)問題を考える。
このラインに沿ったほとんどのメソッドは、SISRタスクに十分な柔軟性がない、事前定義されたシングルLRシングルHRマッピングに依存しています。
リッチディテールSISRのためのベストバディGAN(Beby-GAN)を提案する。
イミュータブルな1対1の制約を緩和することで、推定されたパッチを動的に最高の監視を求めることができる。
論文 参考訳(メタデータ) (2021-03-29T02:58:27Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。