論文の概要: R3GS: Gaussian Splatting for Robust Reconstruction and Relocalization in Unconstrained Image Collections
- arxiv url: http://arxiv.org/abs/2505.15294v1
- Date: Wed, 21 May 2025 09:25:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.413139
- Title: R3GS: Gaussian Splatting for Robust Reconstruction and Relocalization in Unconstrained Image Collections
- Title(参考訳): R3GS:非拘束画像集におけるロバスト再構成と再局在のためのガウススプラッティング
- Authors: Xu yan, Zhaohui Wang, Rong Wei, Jingbo Yu, Dong Li, Xiangde Liu,
- Abstract要約: R3GSは、制約のないデータセットに適した堅牢な再構築と再ローカライゼーションフレームワークである。
過渡的物体の復元過程に対する悪影響を軽減するため,軽量な人検出ネットワークを構築した。
本研究では,屋外シーンにおける空域の課題に対処するために,事前の奥行きを制約として組み込んだ効果的なスカイハンドリング手法を提案する。
- 参考スコア(独自算出の注目度): 9.633163304379861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose R3GS, a robust reconstruction and relocalization framework tailored for unconstrained datasets. Our method uses a hybrid representation during training. Each anchor combines a global feature from a convolutional neural network (CNN) with a local feature encoded by the multiresolution hash grids [2]. Subsequently, several shallow multi-layer perceptrons (MLPs) predict the attributes of each Gaussians, including color, opacity, and covariance. To mitigate the adverse effects of transient objects on the reconstruction process, we ffne-tune a lightweight human detection network. Once ffne-tuned, this network generates a visibility map that efffciently generalizes to other transient objects (such as posters, banners, and cars) with minimal need for further adaptation. Additionally, to address the challenges posed by sky regions in outdoor scenes, we propose an effective sky-handling technique that incorporates a depth prior as a constraint. This allows the inffnitely distant sky to be represented on the surface of a large-radius sky sphere, signiffcantly reducing ffoaters caused by errors in sky reconstruction. Furthermore, we introduce a novel relocalization method that remains robust to changes in lighting conditions while estimating the camera pose of a given image within the reconstructed 3DGS scene. As a result, R3GS significantly enhances rendering ffdelity, improves both training and rendering efffciency, and reduces storage requirements. Our method achieves state-of-the-art performance compared to baseline methods on in-the-wild datasets. The code will be made open-source following the acceptance of the paper.
- Abstract(参考訳): 制約のないデータセットに適したロバストな再構成および再ローカライズフレームワークであるR3GSを提案する。
我々の方法は訓練中にハイブリッド表現を使用する。
各アンカーは、畳み込みニューラルネットワーク(CNN)のグローバルな特徴と、マルチレゾリューションハッシュグリッド[2]で符号化された局所的な特徴を結合する。
その後、いくつかの浅い多層パーセプトロン(MLP)は、色、不透明度、共分散を含む各ガウスの属性を予測する。
過渡的物体の復元過程に対する悪影響を軽減するため,軽量な人検出ネットワークを構築した。
一度調整すると、このネットワークは可視性マップを生成し、ポスター、バナー、車といった他の一時的なオブジェクトに、さらなる適応の必要が最小限に抑えられるように、効果的に一般化する。
また,屋外シーンにおける空域の課題に対処するために,事前の奥行きを制約として組み込んだ効果的なスカイハンドリング手法を提案する。
これにより、遠方の空を大きな半径の空球の表面で表すことができ、空の復元における誤りによって引き起こされるフレアを顕著に減らすことができる。
さらに、再構成された3DGSシーンにおいて、所定の画像のカメラポーズを推定しながら、照明条件の変化に頑健な新しい再局在手法を提案する。
その結果、R3GSはレンダリング効率を大幅に向上し、トレーニングとレンダリング効率の両方を改善し、ストレージ要求を低減した。
In-the-wild データセットのベースライン手法と比較して,本手法は最先端の性能を実現する。
コードは、論文の受理後、オープンソース化される。
関連論文リスト
- Decompositional Neural Scene Reconstruction with Generative Diffusion Prior [64.71091831762214]
完全な形状と詳細なテクスチャを持つ3次元シーンの分解的再構成は、下流の応用に興味深い。
近年のアプローチでは、この問題に対処するために意味的あるいは幾何学的正則化が取り入れられているが、制約の少ない領域では著しく劣化している。
本稿では,SDS(Score Distillation Sampling)の形で拡散先行値を用いたDP-Reconを提案し,新しい視点下で個々の物体の神経表現を最適化する。
論文 参考訳(メタデータ) (2025-03-19T02:11:31Z) - DehazeGS: Seeing Through Fog with 3D Gaussian Splatting [17.119969983512533]
DehazeGSは,霧のない背景をメディアから分解・レンダリングできる手法である。
合成と実世界の霧のデータセットの実験は、DehazeGSが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-01-07T09:47:46Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - GaRField++: Reinforced Gaussian Radiance Fields for Large-Scale 3D Scene Reconstruction [1.7624442706463355]
本稿では,3次元ガウススプラッティングに基づく大規模シーン再構築のための新しい枠組みを提案する(3DGS)。
スケーラビリティ問題に対処するため,大規模シーンを複数のセルに分割し,各セルの候補ポイントクラウドとカメラビューとを相関させる。
本研究では,大規模シーン再構成の最先端手法よりも連続的に高忠実度レンダリング結果を生成することを示す。
論文 参考訳(メタデータ) (2024-09-19T13:43:31Z) - Gaussian in the Wild: 3D Gaussian Splatting for Unconstrained Image Collections [12.807052947367692]
制約のない画像における光度変化と過渡オクルーダは、元のシーンを正確に再構築することが困難である。
ニューラルレージアンスフィールド(NeRF)におけるグローバルな外観特徴の導入による課題への先行的アプローチ
この事実に触発されて,3次元ガウス点を用いてシーンを再構築する手法であるGaussian in the wild (GS-W)を提案する。
論文 参考訳(メタデータ) (2024-03-23T03:55:41Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。