論文の概要: Breaking the Vicious Cycle: Coherent 3D Gaussian Splatting from Sparse and Motion-Blurred Views
- arxiv url: http://arxiv.org/abs/2512.10369v1
- Date: Thu, 11 Dec 2025 07:36:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.247388
- Title: Breaking the Vicious Cycle: Coherent 3D Gaussian Splatting from Sparse and Motion-Blurred Views
- Title(参考訳): 鮮明なサイクルを破る: スパースとモーションブラインドからのコヒーレントな3Dガウススプレイティング
- Authors: Zhankuo Xu, Chaoran Feng, Yingtao Li, Jianbin Zhao, Jiashu Yang, Wangbo Yu, Li Yuan, Yonghong Tian,
- Abstract要約: スパース画像とぼやけた画像から高忠実度3D再構成を行うフレームワークであるCoherentGSを紹介する。
我々の重要な洞察は、これらの複合劣化に二元的戦略を用いて対処することである。
CoherentGSは既存のメソッドを著しく上回り、この挑戦的なタスクのために新しい最先端のタスクを設定している。
- 参考スコア(独自算出の注目度): 40.70901994944635
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has emerged as a state-of-the-art method for novel view synthesis. However, its performance heavily relies on dense, high-quality input imagery, an assumption that is often violated in real-world applications, where data is typically sparse and motion-blurred. These two issues create a vicious cycle: sparse views ignore the multi-view constraints necessary to resolve motion blur, while motion blur erases high-frequency details crucial for aligning the limited views. Thus, reconstruction often fails catastrophically, with fragmented views and a low-frequency bias. To break this cycle, we introduce CoherentGS, a novel framework for high-fidelity 3D reconstruction from sparse and blurry images. Our key insight is to address these compound degradations using a dual-prior strategy. Specifically, we combine two pre-trained generative models: a specialized deblurring network for restoring sharp details and providing photometric guidance, and a diffusion model that offers geometric priors to fill in unobserved regions of the scene. This dual-prior strategy is supported by several key techniques, including a consistency-guided camera exploration module that adaptively guides the generative process, and a depth regularization loss that ensures geometric plausibility. We evaluate CoherentGS through both quantitative and qualitative experiments on synthetic and real-world scenes, using as few as 3, 6, and 9 input views. Our results demonstrate that CoherentGS significantly outperforms existing methods, setting a new state-of-the-art for this challenging task. The code and video demos are available at https://potatobigroom.github.io/CoherentGS/.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、新しいビュー合成のための最先端の手法として登場した。
しかし、その性能は密集した高品質な入力画像に大きく依存しており、これは現実のアプリケーションでしばしば違反される仮定である。
スパースビューは動きのぼけを解決するのに必要なマルチビュー制約を無視し、モーションブラーは制限されたビューを調整するのに不可欠な高周波の詳細を消去する。
したがって、再建はしばしば壊滅的に失敗し、断片化されたビューと低周波バイアスが生じる。
このサイクルを断ち切るために,スパース画像とぼやけた画像から高忠実度3D再構成を行う新しいフレームワークであるCoherentGSを紹介した。
我々の重要な洞察は、これらの複合劣化に二元的戦略を用いて対処することである。
具体的には、シャープなディテールを復元し、光度誘導を提供する特殊なデブロアリングネットワークと、シーンの未観測領域を埋める幾何学的事前情報を提供する拡散モデルを組み合わせる。
このデュアルプライア戦略は、生成プロセスを適応的にガイドする一貫性誘導カメラ探索モジュールや、幾何学的妥当性を保証する深さ正規化損失など、いくつかの重要な技術によって支持されている。
我々は,3,6,9個の入力ビューを用いて,合成シーンと実世界のシーンの定量的および定性的な実験により,CoherentGSを評価した。
以上の結果から,CoherentGSは既存の手法を著しく上回り,この課題に対する新たな最先端の課題を立案した。
コードとビデオのデモはhttps://potatobigroom.github.io/CoherentGS/で公開されている。
関連論文リスト
- Visibility-Aware Densification for 3D Gaussian Splatting in Dynamic Urban Scenes [7.253732091582086]
VAD-GSは3DGSフレームワークで、挑戦的な都市景観の幾何学的復元に適したものだ。
本手法は, ボクセルに基づく可視性推論により, 信頼性の低い幾何学構造を同定する。
多様性を意識したビュー選択を通じて情報的支援ビューを選択し、パッチマッチングベースのステレオ再構築によって行方不明構造を復元する。
論文 参考訳(メタデータ) (2025-10-10T13:22:12Z) - OracleGS: Grounding Generative Priors for Sparse-View Gaussian Splatting [78.70702961852119]
OracleGSは、Gaussian Splattingのスパースビューのために、生成的完全性と回帰的忠実性を調整している。
提案手法は,多視点幾何学的証拠に先立って強力な生成条件を定め,幻覚的アーティファクトをフィルタリングし,非拘束領域における可塑性完備を保存している。
論文 参考訳(メタデータ) (2025-09-27T11:19:32Z) - Intern-GS: Vision Model Guided Sparse-View 3D Gaussian Splatting [95.61137026932062]
Intern-GSはスパースビューガウススプラッティングのプロセスを強化する新しいアプローチである。
Intern-GSは多様なデータセットにまたがって最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-05-27T05:17:49Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - AbsGS: Recovering Fine Details for 3D Gaussian Splatting [10.458776364195796]
3D Gaussian Splatting (3D-GS) 技術は3Dプリミティブを相違可能なガウス化と組み合わせて高品質な新規ビュー結果を得る。
しかし、3D-GSは、高頻度の詳細を含む複雑なシーンで過度に再構成の問題に悩まされ、ぼやけた描画画像に繋がる。
本稿では,前述の人工物,すなわち勾配衝突の原因を包括的に分析する。
我々の戦略は過度に再構成された地域のガウス人を効果的に同定し、分割して細部を復元する。
論文 参考訳(メタデータ) (2024-04-16T11:44:12Z) - Neural Parametric Gaussians for Monocular Non-Rigid Object Reconstruction [8.260048622127913]
モノクロビデオから動的オブジェクトを再構築することは、過小評価され難解な問題である。
本稿では,2段階のアプローチを取り入れたニューラルパラメトリックガウス(NPG)を提案する。
NPGは、特にマルチビューの手がかりがほとんどない挑戦的なシナリオにおいて、以前の研究よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2023-12-02T18:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。