論文の概要: Bootstrap 3D Reconstructed Scenes from 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2404.18669v2
- Date: Sun, 12 May 2024 19:27:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 21:13:38.999826
- Title: Bootstrap 3D Reconstructed Scenes from 3D Gaussian Splatting
- Title(参考訳): 3次元ガウススプレイティングによるブーストラップ3次元再構成シーン
- Authors: Yifei Gao, Jie Ou, Lei Wang, Jun Cheng,
- Abstract要約: トレーニングされた3D-GSを用いて,新しいビューのレンダリングを強化するブートストラップ手法を提案する。
以上の結果から,ブートストレッピングはアーティファクトを効果的に削減し,評価指標の明確化を図っている。
- 参考スコア(独自算出の注目度): 10.06208115191838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in neural rendering techniques have greatly enhanced the rendering of photo-realistic 3D scenes across both academic and commercial fields. The latest method, known as 3D Gaussian Splatting (3D-GS), has set new benchmarks for rendering quality and speed. Nevertheless, the limitations of 3D-GS become pronounced in synthesizing new viewpoints, especially for views that greatly deviate from those seen during training. Additionally, issues such as dilation and aliasing arise when zooming in or out. These challenges can all be traced back to a single underlying issue: insufficient sampling. In our paper, we present a bootstrapping method that significantly addresses this problem. This approach employs a diffusion model to enhance the rendering of novel views using trained 3D-GS, thereby streamlining the training process. Our results indicate that bootstrapping effectively reduces artifacts, as well as clear enhancements on the evaluation metrics. Furthermore, we show that our method is versatile and can be easily integrated, allowing various 3D reconstruction projects to benefit from our approach.
- Abstract(参考訳): ニューラルレンダリング技術の最近の進歩は、学術分野と商業分野の両方にわたって、フォトリアリスティックな3Dシーンのレンダリングを大幅に強化している。
最新の手法は3D Gaussian Splatting(3D-GS)と呼ばれ、レンダリングの品質とスピードのベンチマークを新たに設定した。
それでも、3D-GSの限界は新しい視点の合成において顕著となり、特にトレーニング中に見られるものとは大きく異なる視点についてである。
また、ズームインやアウト時にダイレーションやエイリアスなどの問題が発生する。
これらの課題はすべて、1つの根本的な問題、すなわち不十分なサンプリングに遡ることができる。
本稿では,この問題に対処するブートストラップ法を提案する。
このアプローチでは,3D-GSを用いた新しいビューのレンダリングを強化するために拡散モデルを用いて,トレーニングプロセスの合理化を行う。
以上の結果から,ブートストレッピングはアーティファクトを効果的に削減し,評価指標の明確化を図っている。
さらに,本手法は汎用性が高く,容易に統合可能であることを示し,様々な3次元再構成プロジェクトが本手法の恩恵を受けることができることを示した。
関連論文リスト
- Beyond Gaussians: Fast and High-Fidelity 3D Splatting with Linear Kernels [51.08794269211701]
本稿では,ガウスカーネルを線形カーネルに置き換えて,よりシャープで高精度な結果を得る3Dリニアスティング(DLS)を提案する。
3DLSは、最先端の忠実さと正確さを示し、ベースライン3DGSよりも30%のFPS改善を実現している。
論文 参考訳(メタデータ) (2024-11-19T11:59:54Z) - 3DGS-Enhancer: Enhancing Unbounded 3D Gaussian Splatting with View-consistent 2D Diffusion Priors [13.191199172286508]
新規ビュー合成は、複数の入力画像やビデオからシーンの新しいビューを生成することを目的としている。
3DGS-Enhancerは、3DGS表現の表現品質を向上させるための新しいパイプラインである。
論文 参考訳(メタデータ) (2024-10-21T17:59:09Z) - 3D-HGS: 3D Half-Gaussian Splatting [5.766096863155448]
光リアルな3D再構成は、3Dコンピュータビジョンの基本的な問題である。
本稿では,プラグアンドプレイカーネルとして使用できる3Dハーフガウス(3D-HGS)カーネルを提案する。
論文 参考訳(メタデータ) (2024-06-04T19:04:29Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z) - Gaussian Splatting: 3D Reconstruction and Novel View Synthesis, a Review [0.08823202672546056]
本稿では,新鮮で見えない視点の創出を含む3次元再構成技術について概説する。
ガウススティング法における最近の展開の概要として,入力型,モデル構造,出力表現,トレーニング戦略について概説する。
論文 参考訳(メタデータ) (2024-05-06T12:32:38Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。