論文の概要: SplatFill: 3D Scene Inpainting via Depth-Guided Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2509.07809v1
- Date: Tue, 09 Sep 2025 14:47:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.36352
- Title: SplatFill: 3D Scene Inpainting via Depth-Guided Gaussian Splatting
- Title(参考訳): SplatFill:Depth-Guided Gaussian Splattingによる3DScene Inpainting
- Authors: Mahtab Dahaghin, Milind G. Padalkar, Matteo Toso, Alessio Del Bue,
- Abstract要約: 3D Gaussian Splatting (3DGS)は、多視点画像の集合から非常にリアルな3Dシーン表現を作成することができる。
本研究では,3DGSシーンの奥行き誘導手法であるSplatFillを紹介する。
- 参考スコア(独自算出の注目度): 17.45252036814217
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has enabled the creation of highly realistic 3D scene representations from sets of multi-view images. However, inpainting missing regions, whether due to occlusion or scene editing, remains a challenging task, often leading to blurry details, artifacts, and inconsistent geometry. In this work, we introduce SplatFill, a novel depth-guided approach for 3DGS scene inpainting that achieves state-of-the-art perceptual quality and improved efficiency. Our method combines two key ideas: (1) joint depth-based and object-based supervision to ensure inpainted Gaussians are accurately placed in 3D space and aligned with surrounding geometry, and (2) we propose a consistency-aware refinement scheme that selectively identifies and corrects inconsistent regions without disrupting the rest of the scene. Evaluations on the SPIn-NeRF dataset demonstrate that SplatFill not only surpasses existing NeRF-based and 3DGS-based inpainting methods in visual fidelity but also reduces training time by 24.5%. Qualitative results show our method delivers sharper details, fewer artifacts, and greater coherence across challenging viewpoints.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、多視点画像の集合から非常にリアルな3Dシーン表現を作成することができる。
しかし、隠蔽やシーンの編集など、欠落した領域に絵を描くことは難しい課題であり、しばしばぼやけた細部や工芸品、矛盾した幾何学に繋がる。
SplatFillは3DGSシーンインペイントのための新しい奥行き誘導方式で,最先端の知覚品質を実現し,効率を向上する。
提案手法は,(1)塗装されたガウスを3次元空間に正確に配置し,周囲の幾何学と整合性を持たせるための共同深度ベースとオブジェクトベース監視,(2)シーンの残りの部分を壊さずに不整合領域を選択的に識別・修正する整合性改善手法を提案する。
SPIn-NeRFデータセットの評価によると、SplatFillは既存のNeRFベースおよび3DGSベースの塗装法を視覚的忠実度で上回るだけでなく、トレーニング時間を24.5%短縮する。
定性的な結果から,本手法はよりシャープな細部,少ないアーティファクト,そして難解な視点をまたいだコヒーレンスを示す。
関連論文リスト
- Visibility-Uncertainty-guided 3D Gaussian Inpainting via Scene Conceptional Learning [63.94919846010485]
3DGI)は、複数の入力ビューから補完的な視覚的・意味的手がかりを効果的に活用することが困難である。
本稿では,異なる入力ビュー間での3Dポイントの視認性不確実性を計測し,それらを用いて3DGIを誘導する手法を提案する。
ViSibility-uncerTainty-guided 3DGIとシーンコンセプトAl学習を統合し,新しい3DGIフレームワークであるVISTAを構築した。
論文 参考訳(メタデータ) (2025-04-23T06:21:11Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - 3D Gaussian Inpainting with Depth-Guided Cross-View Consistency [30.951440204237166]
本稿では,3次元の立体インパインティングのための3次元ガウス的インパインティング(3DGIC)のフレームワークを提案する。
当社の3DGICは、さまざまなビューに表示される背景画素を利用して、塗装マスクを更新し、塗装目的のために3DGSを洗練します。
論文 参考訳(メタデータ) (2025-02-17T13:46:47Z) - Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - GSplatLoc: Grounding Keypoint Descriptors into 3D Gaussian Splatting for Improved Visual Localization [1.4466437171584356]
軽量なXFeat特徴抽出器から高密度かつ堅牢なキーポイント記述器を3DGSに統合する2段階の手順を提案する。
第2段階では、レンダリングベースの光度ワープ損失を最小限に抑え、初期ポーズ推定を洗練させる。
広く使われている屋内および屋外データセットのベンチマークは、最近のニューラルレンダリングベースのローカライゼーション手法よりも改善されていることを示している。
論文 参考訳(メタデータ) (2024-09-24T23:18:32Z) - SPIn-NeRF: Multiview Segmentation and Perceptual Inpainting with Neural
Radiance Fields [26.296017756560467]
3Dでは、解は複数のビューで一貫し、幾何学的に有効でなければならない。
本稿では,これらの課題に対処する新しい3Dインペイント手法を提案する。
我々はまず,NeRF法と2次元セグメンテーション法と比較して,マルチビューセグメンテーションにおけるアプローチの優位性を実証する。
論文 参考訳(メタデータ) (2022-11-22T13:14:50Z) - CompNVS: Novel View Synthesis with Scene Completion [83.19663671794596]
本稿では,スパースグリッドに基づくニューラルシーン表現を用いた生成パイプラインを提案する。
画像特徴を3次元空間に符号化し、幾何学的完備化ネットワークとその後のテクスチャ塗布ネットワークを用いて、欠落した領域を外挿する。
フォトリアリスティック画像列は、整合性関連微分可能レンダリングによって最終的に得られる。
論文 参考訳(メタデータ) (2022-07-23T09:03:13Z) - 3D Photography using Context-aware Layered Depth Inpainting [50.66235795163143]
本稿では、1枚のRGB-D入力画像を3D写真に変換する方法を提案する。
学習に基づく着色モデルでは,新しい局所的な色と深度を隠蔽領域に合成する。
結果の3D写真は、モーションパララックスで効率よくレンダリングできる。
論文 参考訳(メタデータ) (2020-04-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。