論文の概要: Splat and Replace: 3D Reconstruction with Repetitive Elements
- arxiv url: http://arxiv.org/abs/2506.06462v1
- Date: Fri, 06 Jun 2025 18:34:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.283039
- Title: Splat and Replace: 3D Reconstruction with Repetitive Elements
- Title(参考訳): Splat and Replace: 反復要素を用いた3次元再構成
- Authors: Nicolás Violante, Andreas Meuleman, Alban Gauthier, Frédo Durand, Thibault Groueix, George Drettakis,
- Abstract要約: 我々は3次元シーンにおける反復的要素を活用して、新規なビュー合成を改善する。
私たちの重要な観察は、環境がしばしば反復的な要素で満たされていることです。
本稿では,3DGS再構成において繰り返し発生する各インスタンスを分割し,それらをまとめて登録し,インスタンス間で情報を共有できるようにする手法を提案する。
- 参考スコア(独自算出の注目度): 15.648876467553544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We leverage repetitive elements in 3D scenes to improve novel view synthesis. Neural Radiance Fields (NeRF) and 3D Gaussian Splatting (3DGS) have greatly improved novel view synthesis but renderings of unseen and occluded parts remain low-quality if the training views are not exhaustive enough. Our key observation is that our environment is often full of repetitive elements. We propose to leverage those repetitions to improve the reconstruction of low-quality parts of the scene due to poor coverage and occlusions. We propose a method that segments each repeated instance in a 3DGS reconstruction, registers them together, and allows information to be shared among instances. Our method improves the geometry while also accounting for appearance variations across instances. We demonstrate our method on a variety of synthetic and real scenes with typical repetitive elements, leading to a substantial improvement in the quality of novel view synthesis.
- Abstract(参考訳): 我々は3次元シーンにおける反復的要素を活用して、新規なビュー合成を改善する。
ニューラル・ラジアンス・フィールド(NeRF)と3Dガウス・スプレイティング(3DGS)は、新しいビュー合成を大幅に改善したが、トレーニングビューが十分に徹底していない場合、目に見えない部分と隠蔽部分のレンダリングは低品質のままである。
私たちの重要な観察は、環境がしばしば反復的な要素で満たされていることです。
我々は,これらの繰り返しを活用して,映像の低品質な部分の再現を改善することを提案する。
本稿では,3DGS再構成で繰り返し発生する各インスタンスを分割し,それらをまとめて登録し,インスタンス間で情報を共有できるようにする手法を提案する。
本手法は,インスタンス間の外観変化を考慮しつつ,形状を改良する。
本手法は,典型的な反復的要素を持つ様々な合成シーンおよび実シーンにおいて実証され,新規なビュー合成の品質が大幅に向上する。
関連論文リスト
- Free360: Layered Gaussian Splatting for Unbounded 360-Degree View Synthesis from Extremely Sparse and Unposed Views [29.85363432402896]
本研究では,非有界な360degシーンにおいて,非有界かつ極めてスパースな3次元再構成を実現するための新しいニューラルネットワークレンダリングフレームワークを提案する。
密集したステレオ再構成モデルを用いて粗い形状を復元し, ノイズを低減し, 閉塞領域を埋めるために, 層特異的なブートストラップ最適化を導入する。
提案手法は,レンダリング品質と表面再構成精度において,既存の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2025-03-31T17:59:25Z) - Gen3DSR: Generalizable 3D Scene Reconstruction via Divide and Conquer from a Single View [5.222115919729418]
シングルビュー3D再構成は現在、2つの主要な視点からアプローチされている。
分割・分散戦略に従うハイブリッド手法を提案する。
我々は,合成シーンと実世界のシーンの両方において,我々のアプローチの再構築性能を実証する。
論文 参考訳(メタデータ) (2024-04-04T12:58:46Z) - Total-Decom: Decomposed 3D Scene Reconstruction with Minimal Interaction [51.3632308129838]
人間のインタラクションを最小限に抑えた3次元再構成法であるTotal-Decomを提案する。
提案手法は,Segment Anything Model (SAM) とハイブリッド型暗黙的なニューラルサーフェス表現をシームレスに統合し,メッシュベースの領域成長技術を用いて正確な3次元オブジェクト分解を行う。
提案手法をベンチマークデータセット上で広範囲に評価し,アニメーションやシーン編集などの下流アプリケーションの可能性を示す。
論文 参考訳(メタデータ) (2024-03-28T11:12:33Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - ReconFusion: 3D Reconstruction with Diffusion Priors [104.73604630145847]
本稿では,数枚の写真を用いて現実のシーンを再構成するReconFusionを提案する。
提案手法は,合成および多視点データセットに基づいて訓練された新規なビュー合成に先立って拡散を利用する。
本手法は,観測領域の外観を保ちながら,非拘束領域における現実的な幾何学とテクスチャを合成する。
論文 参考訳(メタデータ) (2023-12-05T18:59:58Z) - Learning to Render Novel Views from Wide-Baseline Stereo Pairs [26.528667940013598]
本稿では,単一の広線ステレオ画像ペアのみを付与した新しいビュー合成手法を提案する。
スパース観測による新しいビュー合成への既存のアプローチは、誤った3次元形状の復元によって失敗する。
対象光線に対する画像特徴を組み立てるための,効率的な画像空間のエピポーラ線サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:40:52Z) - VolRecon: Volume Rendering of Signed Ray Distance Functions for
Generalizable Multi-View Reconstruction [64.09702079593372]
VolRecon は Signed Ray Distance Function (SRDF) を用いた新しい一般化可能な暗黙的再構成法である
DTUデータセットでは、VolReconはスパースビュー再構築においてSparseNeuSを約30%上回り、フルビュー再構築においてMVSNetと同等の精度を達成する。
論文 参考訳(メタデータ) (2022-12-15T18:59:54Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Fast and Explicit Neural View Synthesis [17.811091108978463]
本研究では,3次元オブジェクトからなるシーンの新規ビュー合成問題について検討する。
連続的でも暗黙的でもない、単純で効果的なアプローチを提案する。
我々のモデルはカテゴリに依存しない方法で訓練されており、シーン固有の最適化を必要としない。
論文 参考訳(メタデータ) (2021-07-12T23:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。