論文の概要: Extreme Views: 3DGS Filter for Novel View Synthesis from Out-of-Distribution Camera Poses
- arxiv url: http://arxiv.org/abs/2510.20027v1
- Date: Wed, 22 Oct 2025 21:09:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.839229
- Title: Extreme Views: 3DGS Filter for Novel View Synthesis from Out-of-Distribution Camera Poses
- Title(参考訳): Extreme Views:3DGS Filter for Novel View Synthesis from Out-of-Distribution Camera Poses
- Authors: Damian Bowness, Charalambos Poullis,
- Abstract要約: トレーニングデータ分布の外にカメラ位置から3Dガウススプラッティング(3DGS)モデルを見る場合、かなりの視覚ノイズが発生することが一般的である。
本稿では,この問題に対処する新しいリアルタイムレンダリング対応フィルタリング手法を提案する。
提案手法は,既存のNeRF(Neural Radiance Field)ベースのアプローチと比較して,視覚的品質,リアリズム,一貫性を著しく向上する。
- 参考スコア(独自算出の注目度): 3.007949058551534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When viewing a 3D Gaussian Splatting (3DGS) model from camera positions significantly outside the training data distribution, substantial visual noise commonly occurs. These artifacts result from the lack of training data in these extrapolated regions, leading to uncertain density, color, and geometry predictions from the model. To address this issue, we propose a novel real-time render-aware filtering method. Our approach leverages sensitivity scores derived from intermediate gradients, explicitly targeting instabilities caused by anisotropic orientations rather than isotropic variance. This filtering method directly addresses the core issue of generative uncertainty, allowing 3D reconstruction systems to maintain high visual fidelity even when users freely navigate outside the original training viewpoints. Experimental evaluation demonstrates that our method substantially improves visual quality, realism, and consistency compared to existing Neural Radiance Field (NeRF)-based approaches such as BayesRays. Critically, our filter seamlessly integrates into existing 3DGS rendering pipelines in real-time, unlike methods that require extensive post-hoc retraining or fine-tuning. Code and results at https://damian-bowness.github.io/EV3DGS
- Abstract(参考訳): トレーニングデータ分布の外にカメラ位置から3Dガウススプラッティング(3DGS)モデルを見る場合、かなりの視覚ノイズが発生することが一般的である。
これらのアーティファクトは、これらの外挿された領域におけるトレーニングデータの欠如により、モデルから不確実な密度、色、および幾何学的予測をもたらす。
そこで本研究では,新しいリアルタイムレンダリング認識フィルタリング手法を提案する。
提案手法は, 中間勾配から得られる感度スコアを利用して, 異方性分散ではなく異方性配向によって生じる不安定性を明示する。
このフィルタリング方式は、ユーザが元のトレーニング視点外を自由に移動しても、3D再構成システムが高い視力を維持することができるように、生成の不確実性のコア問題に直接対処する。
実験により,ベイズ線のような既存のニューラルレージアンスフィールド(NeRF)ベースのアプローチと比較して,視覚的品質,リアリズム,一貫性を著しく向上することが示された。
重要な点として、我々のフィルタは既存の3DGSレンダリングパイプラインをリアルタイムでシームレスに統合する。
コードと結果 - https://damian-bowness.github.io/EV3DGS
関連論文リスト
- Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - Taming Video Diffusion Prior with Scene-Grounding Guidance for 3D Gaussian Splatting from Sparse Inputs [28.381287866505637]
本稿では,映像拡散モデルから学習した先行情報を生かした生成パイプラインによる再構成手法を提案する。
最適化された3DGSからのレンダリングシーケンスに基づく新しいシーングラウンドガイダンスを導入し,拡散モデルを用いて一貫したシーケンスを生成する。
提案手法はベースラインを大幅に改善し,挑戦的なベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-07T01:59:05Z) - MVS-GS: High-Quality 3D Gaussian Splatting Mapping via Online Multi-View Stereo [9.740087094317735]
オンライン多視点ステレオ手法を用いた高品質な3DGSモデリングのための新しいフレームワークを提案する。
本手法は,局所時間窓から逐次フレームを用いてMVS深度を推定し,包括的深度改善手法を適用した。
実験の結果,本手法は最先端の高密度SLAM法より優れていた。
論文 参考訳(メタデータ) (2024-12-26T09:20:04Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Bootstrap-GS: Self-Supervised Augmentation for High-Fidelity Gaussian Splatting [9.817215106596146]
3D-GSは、トレーニング中に遭遇したものとは大きく異なる、新しいビューを生成する際に制限に直面します。
この問題に対処するためのブートストラップフレームワークを導入します。
提案手法は,限られたトレーニングセットと整合した新しい視点から,擬似地下真実を合成する。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z) - SGD: Street View Synthesis with Gaussian Splatting and Diffusion Prior [53.52396082006044]
現在の手法では、トレーニングの観点から大きく逸脱する観点で、レンダリングの品質を維持するのに苦労しています。
この問題は、移動中の車両の固定カメラが捉えた、まばらなトレーニングビューに起因している。
そこで本研究では,拡散モデルを用いて3DGSのキャパシティを向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T09:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。