論文の概要: Inpaint360GS: Efficient Object-Aware 3D Inpainting via Gaussian Splatting for 360° Scenes
- arxiv url: http://arxiv.org/abs/2511.06457v1
- Date: Sun, 09 Nov 2025 16:47:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.960398
- Title: Inpaint360GS: Efficient Object-Aware 3D Inpainting via Gaussian Splatting for 360° Scenes
- Title(参考訳): Inpaint360GS:360度撮影のためのガウススプレイティングによる効率的な物体認識3Dインペイント
- Authors: Shaoxiang Wang, Shihong Zhang, Christen Millerdurai, Rüdiger Westermann, Didier Stricker, Alain Pagani,
- Abstract要約: Inpaint360GSは3DGSをベースとした柔軟な360度編集フレームワークである。
マルチオブジェクトの除去と3D空間での高忠実な塗装をサポートする。
360degインペイントに適した新しいデータセットを導入し,オブジェクトフリーシーンの真実の欠如に対処する。
- 参考スコア(独自算出の注目度): 23.919964109891637
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite recent advances in single-object front-facing inpainting using NeRF and 3D Gaussian Splatting (3DGS), inpainting in complex 360{\deg} scenes remains largely underexplored. This is primarily due to three key challenges: (i) identifying target objects in the 3D field of 360{\deg} environments, (ii) dealing with severe occlusions in multi-object scenes, which makes it hard to define regions to inpaint, and (iii) maintaining consistent and high-quality appearance across views effectively. To tackle these challenges, we propose Inpaint360GS, a flexible 360{\deg} editing framework based on 3DGS that supports multi-object removal and high-fidelity inpainting in 3D space. By distilling 2D segmentation into 3D and leveraging virtual camera views for contextual guidance, our method enables accurate object-level editing and consistent scene completion. We further introduce a new dataset tailored for 360{\deg} inpainting, addressing the lack of ground truth object-free scenes. Experiments demonstrate that Inpaint360GS outperforms existing baselines and achieves state-of-the-art performance. Project page: https://dfki-av.github.io/inpaint360gs/
- Abstract(参考訳): NeRFと3D Gaussian Splatting(3DGS)を用いた単目的前面塗装の最近の進歩にもかかわらず、複雑な360{\deg}シーンでの塗装は未解明のままである。
主な原因は3つの課題である。
i) 360{\deg}環境の3次元フィールドにおける対象オブジェクトの識別。
(二)多目的場面における重篤な排他物を扱うことにより、着色する地域を定めるのが困難となる。
三 視界の整合性、質の高い外観を効果的に維持すること。
これらの課題に対処するために、3DGSをベースとしたフレキシブルな360度編集フレームワークInpaint360GSを提案する。
2Dセグメンテーションを3Dに蒸留し、仮想カメラビューをコンテキストガイダンスに活用することにより、正確なオブジェクトレベルの編集と一貫したシーン補完を可能にする。
さらに,360{\deg}の塗装に適した新しいデータセットを導入する。
実験により、Inpaint360GSは既存のベースラインより優れ、最先端のパフォーマンスを実現していることが示された。
プロジェクトページ: https://dfki-av.github.io/inpaint360gs/
関連論文リスト
- SplatFill: 3D Scene Inpainting via Depth-Guided Gaussian Splatting [17.45252036814217]
3D Gaussian Splatting (3DGS)は、多視点画像の集合から非常にリアルな3Dシーン表現を作成することができる。
本研究では,3DGSシーンの奥行き誘導手法であるSplatFillを紹介する。
論文 参考訳(メタデータ) (2025-09-09T14:47:47Z) - ObjFiller-3D: Consistent Multi-view 3D Inpainting via Video Diffusion Models [76.80262068405243]
3Dインパインティングは、しばしばマルチビュー2Dイメージのインパインティングに依存し、固有の不整合は、ぼやけたテクスチャ、空間的な不連続、視覚的アーティファクトを逸脱させる。
高品質で一貫した3Dオブジェクトを補完・編集するための新しい手法であるFiller-3Dを提案する。
映像と3Dの表現ギャップを解析し,映像のインパインティングモデルによる3Dシーンのインパインティングの適応を提案する。
論文 参考訳(メタデータ) (2025-08-25T17:59:40Z) - Visibility-Uncertainty-guided 3D Gaussian Inpainting via Scene Conceptional Learning [63.94919846010485]
3DGI)は、複数の入力ビューから補完的な視覚的・意味的手がかりを効果的に活用することが困難である。
本稿では,異なる入力ビュー間での3Dポイントの視認性不確実性を計測し,それらを用いて3DGIを誘導する手法を提案する。
ViSibility-uncerTainty-guided 3DGIとシーンコンセプトAl学習を統合し,新しい3DGIフレームワークであるVISTAを構築した。
論文 参考訳(メタデータ) (2025-04-23T06:21:11Z) - Splatter-360: Generalizable 360$^{\circ}$ Gaussian Splatting for Wide-baseline Panoramic Images [52.48351378615057]
textitSplatter-360は、ワイドベースラインパノラマ画像を扱うための、エンドツーエンドの汎用3DGSフレームワークである。
パノラマ画像に固有の歪みを緩和する3D対応複投影エンコーダを提案する。
これにより、堅牢な3D対応機能表現とリアルタイムレンダリングが可能になる。
論文 参考訳(メタデータ) (2024-12-09T06:58:31Z) - DreamScene360: Unconstrained Text-to-3D Scene Generation with Panoramic Gaussian Splatting [56.101576795566324]
テキストから3D 360$circ$のシーン生成パイプラインを提示する。
提案手法は, 2次元拡散モデルの生成力を利用して, 自己複製を促進する。
当社の手法は,360ドル(約3万2000円)の視野内で,グローバルに一貫した3Dシーンを提供する。
論文 参考訳(メタデータ) (2024-04-10T10:46:59Z) - NeRFiller: Completing Scenes via Generative 3D Inpainting [113.18181179986172]
生成3Dインパインティングによる3Dキャプチャの欠落部分を解消する手法であるNeRFillerを提案する。
関連する作品とは対照的に、前景のオブジェクトを削除するのではなく、シーンの完成に重点を置いている。
論文 参考訳(メタデータ) (2023-12-07T18:59:41Z) - Clutter Detection and Removal in 3D Scenes with View-Consistent
Inpainting [10.087325516269265]
本稿では,3次元のシーンやインペイントの粗さをコヒーレントな形状とテクスチャで除去するシステムを提案する。
ノイズの多いラベルをグループ化し、仮想レンダリングを活用し、インスタンスレベルの領域依存的な損失を課します。
ScanNetとMatterportのデータセットを用いた実験により,本手法はクラッタセグメンテーションと3Dインパインティングのベースラインよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-07T17:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。