論文の概要: Sparfels: Fast Reconstruction from Sparse Unposed Imagery
- arxiv url: http://arxiv.org/abs/2505.02178v1
- Date: Sun, 04 May 2025 16:40:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.470524
- Title: Sparfels: Fast Reconstruction from Sparse Unposed Imagery
- Title(参考訳): スパーフェルス:スパース・アンポーズ画像からの高速な再構築
- Authors: Shubhendu Jena, Amine Ouasfi, Mae Younes, Adnane Boukhayma,
- Abstract要約: コンシューマグレードGPU上で3分以内で動作する表面要素スプラッティングを用いたスパースビュー再構成法を提案する。
我々の貢献の鍵は、効率よく計算できる光線に沿ったスプレイト色分散の新たな定式化である。
確立されたマルチビューデータセットに基づいて、再構成と新規ビューベンチマークにおいて、スパースな未校正設定における最先端性能を示す。
- 参考スコア(独自算出の注目度): 8.362190332905524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for Sparse view reconstruction with surface element splatting that runs within 3 minutes on a consumer grade GPU. While few methods address sparse radiance field learning from noisy or unposed sparse cameras, shape recovery remains relatively underexplored in this setting. Several radiance and shape learning test-time optimization methods address the sparse posed setting by learning data priors or using combinations of external monocular geometry priors. Differently, we propose an efficient and simple pipeline harnessing a single recent 3D foundation model. We leverage its various task heads, notably point maps and camera initializations to instantiate a bundle adjusting 2D Gaussian Splatting (2DGS) model, and image correspondences to guide camera optimization midst 2DGS training. Key to our contribution is a novel formulation of splatted color variance along rays, which can be computed efficiently. Reducing this moment in training leads to more accurate shape reconstructions. We demonstrate state-of-the-art performances in the sparse uncalibrated setting in reconstruction and novel view benchmarks based on established multi-view datasets.
- Abstract(参考訳): コンシューマグレードGPU上で3分以内で動作する表面要素スプラッティングを用いたスパースビュー再構成法を提案する。
ノイズや未ポーズのスパースカメラからのスパース放射場学習に対処する手法はほとんどないが、この設定では形状回復が比較的過小評価されている。
いくつかのラディアンスおよび形状学習テストタイム最適化手法は、データの事前学習や、外部単分子形状の事前組み合わせによるスパースポーズ設定に対処する。
そこで本研究では,最近の1つの3次元基礎モデルを用いた,効率的でシンプルなパイプラインを提案する。
本稿では,2DGS トレーニング中の2DGS モデル,および2DGS トレーニング中のカメラ最適化のための画像対応のバンドルをインスタンス化するために,その様々なタスクヘッド,特に点マップとカメラの初期化を利用する。
我々の貢献の鍵は、効率よく計算できる光線に沿ったスプレイト色分散の新たな定式化である。
トレーニングにおけるこの瞬間の短縮は、より正確な形状の再構築につながる。
確立されたマルチビューデータセットに基づいて、再構成と新規ビューベンチマークにおいて、スパースな未校正設定における最先端性能を示す。
関連論文リスト
- GPS-Gaussian+: Generalizable Pixel-wise 3D Gaussian Splatting for Real-Time Human-Scene Rendering from Sparse Views [67.34073368933814]
スパースビューカメラ設定下での高解像度画像レンダリングのための一般化可能なガウススプラッティング手法を提案する。
我々は,人間のみのデータや人景データに基づいてガウスパラメータ回帰モジュールをトレーニングし,深度推定モジュールと共同で2次元パラメータマップを3次元空間に引き上げる。
いくつかのデータセットに対する実験により、我々の手法はレンダリング速度を超越しながら最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-11-18T08:18:44Z) - A Construct-Optimize Approach to Sparse View Synthesis without Camera Pose [44.13819148680788]
カメラポーズを伴わないスパースビュー合成のための新しい構成と最適化手法を開発した。
具体的には、単分子深度と画素を3次元の世界に投影することで、解を構築する。
タンク・アンド・テンプル・アンド・スタティック・ハイクスのデータセットに3つの広い範囲のビューで結果を示す。
論文 参考訳(メタデータ) (2024-05-06T17:36:44Z) - GS2Mesh: Surface Reconstruction from Gaussian Splatting via Novel Stereo Views [9.175560202201819]
3Dガウススプラッティング(3DGS)はシーンを正確に表現するための効率的なアプローチとして登場した。
本稿では,ノイズの多い3DGS表現とスムーズな3Dメッシュ表現とのギャップを埋めるための新しい手法を提案する。
私たちは、オリジナルのトレーニングポーズに対応するステレオアライメントされたイメージのペアをレンダリングし、ペアをステレオモデルに入力して深度プロファイルを取得し、最後にすべてのプロファイルを融合して単一のメッシュを得る。
論文 参考訳(メタデータ) (2024-04-02T10:13:18Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Splatter Image: Ultra-Fast Single-View 3D Reconstruction [67.96212093828179]
Splatter ImageはGaussian Splattingをベースにしており、複数の画像から3Dシーンを高速かつ高品質に再現することができる。
テスト時に38FPSでフィードフォワードで再構成を行うニューラルネットワークを学習する。
いくつかの総合、実、マルチカテゴリ、大規模ベンチマークデータセットにおいて、トレーニング中にPSNR、LPIPS、その他のメトリクスでより良い結果を得る。
論文 参考訳(メタデータ) (2023-12-20T16:14:58Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - BAA-NGP: Bundle-Adjusting Accelerated Neural Graphics Primitives [6.431806897364565]
ロボットは2D画像から3D環境を理解することができる。
本稿では,バンドル調整型高速化ニューラルネットワークプリミティブ(BAA-NGP)というフレームワークを提案する。
その結果,他の束調整型ニューラルラジアンスフィールド法と比較して10~20倍の速度向上が得られた。
論文 参考訳(メタデータ) (2023-06-07T05:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。