論文の概要: Beyond Existance: Fulfill 3D Reconstructed Scenes with Pseudo Details
- arxiv url: http://arxiv.org/abs/2503.04037v1
- Date: Thu, 06 Mar 2025 02:46:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:58:36.564296
- Title: Beyond Existance: Fulfill 3D Reconstructed Scenes with Pseudo Details
- Title(参考訳): Fulfillの3Dリコンストラクションシーン「Beyond Existance」
- Authors: Yifei Gao, Jun Huang, Lei Wang, Ruiting Dai, Jun Cheng,
- Abstract要約: 本研究では,拡散モデルと擬似地下構造データを用いたマルチスケールトレーニングを統合する新しいトレーニング手法を提案する。
提案手法は,各種ベンチマークにおける最先端性能を実現し,トレーニングデータセットを超えて3次元再構成機能を拡張する。
- 参考スコア(独自算出の注目度): 12.167127919679022
- License:
- Abstract: The emergence of 3D Gaussian Splatting (3D-GS) has significantly advanced 3D reconstruction by providing high fidelity and fast training speeds across various scenarios. While recent efforts have mainly focused on improving model structures to compress data volume or reduce artifacts during zoom-in and zoom-out operations, they often overlook an underlying issue: training sampling deficiency. In zoomed-in views, Gaussian primitives can appear unregulated and distorted due to their dilation limitations and the insufficient availability of scale-specific training samples. Consequently, incorporating pseudo-details that ensure the completeness and alignment of the scene becomes essential. In this paper, we introduce a new training method that integrates diffusion models and multi-scale training using pseudo-ground-truth data. This approach not only notably mitigates the dilation and zoomed-in artifacts but also enriches reconstructed scenes with precise details out of existing scenarios. Our method achieves state-of-the-art performance across various benchmarks and extends the capabilities of 3D reconstruction beyond training datasets.
- Abstract(参考訳): 3Dガウススプラッティング(3D-GS)の出現は、様々なシナリオで高い忠実度と高速なトレーニング速度を提供することで、大幅に進歩した3D再構成を実現した。
近年の取り組みは、データボリュームを圧縮したり、ズームインやズームアウト操作でアーティファクトを減らすためのモデル構造の改善に重点を置いているが、サンプリング不足のトレーニングという根本的な問題を見落としていることが多い。
ズームインビューでは、拡張制限とスケール固有のトレーニングサンプルが不十分なため、ガウス原始体は制御されず歪んでいるように見える。
これにより、シーンの完全性とアライメントを確実にする擬似ディテールを組み込むことが不可欠となる。
本稿では,拡散モデルと擬似地下構造データを用いたマルチスケールトレーニングを統合した新しいトレーニング手法を提案する。
このアプローチは、拡張とズームインされたアーティファクトを顕著に緩和するだけでなく、既存のシナリオから正確な詳細で再構築されたシーンを豊かにする。
提案手法は,各種ベンチマークにおける最先端性能を実現し,トレーニングデータセットを超えて3次元再構成機能を拡張する。
関連論文リスト
- LM-Gaussian: Boost Sparse-view 3D Gaussian Splatting with Large Model Priors [34.91966359570867]
スパースビューの再構築は本質的に不適切であり、制約を受けていない。
本稿では,限られた画像から高品質な再構成を生成できるLM-Gaussianを紹介する。
提案手法は,従来の3DGS法と比較してデータ取得要求を大幅に削減する。
論文 参考訳(メタデータ) (2024-09-05T12:09:02Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - Bootstrap-GS: Self-Supervised Augmentation for High-Fidelity Gaussian Splatting [9.817215106596146]
3D-GSは、トレーニング中に遭遇したものとは大きく異なる、新しいビューを生成する際に制限に直面します。
この問題に対処するためのブートストラップフレームワークを導入します。
提案手法は,限られたトレーニングセットと整合した新しい視点から,擬似地下真実を合成する。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Scaffold-GS: Structured 3D Gaussians for View-Adaptive Rendering [71.44349029439944]
最近の3次元ガウス散乱法は、最先端のレンダリング品質と速度を達成している。
局所的な3Dガウス分布にアンカーポイントを用いるScaffold-GSを導入する。
提案手法は,高品質なレンダリングを実現しつつ,冗長なガウスを効果的に削減できることを示す。
論文 参考訳(メタデータ) (2023-11-30T17:58:57Z) - Robust Geometry-Preserving Depth Estimation Using Differentiable
Rendering [93.94371335579321]
我々は、余分なデータやアノテーションを必要とせずに、幾何学保存深度を予測するためにモデルを訓練する学習フレームワークを提案する。
包括的な実験は、我々のフレームワークの優れた一般化能力を強調します。
我々の革新的な損失関数は、ドメイン固有のスケール・アンド・シフト係数を自律的に復元するモデルを可能にします。
論文 参考訳(メタデータ) (2023-09-18T12:36:39Z) - Unbiased 4D: Monocular 4D Reconstruction with a Neural Deformation Model [76.64071133839862]
モノクロRGBビデオから一般的なデフォーミングシーンをキャプチャすることは、多くのコンピュータグラフィックスや視覚アプリケーションにとって不可欠である。
提案手法であるUb4Dは、大きな変形を処理し、閉塞領域での形状補完を行い、可変ボリュームレンダリングを用いて、単眼のRGBビデオを直接操作することができる。
我々の新しいデータセットの結果は公開され、表面の復元精度と大きな変形に対する堅牢性の観点から、技術の現状が明らかに改善されていることを実証する。
論文 参考訳(メタデータ) (2022-06-16T17:59:54Z) - Advancing 3D Medical Image Analysis with Variable Dimension Transform
based Supervised 3D Pre-training [45.90045513731704]
本稿では,革新的でシンプルな3Dネットワーク事前学習フレームワークを再考する。
再設計された3Dネットワークアーキテクチャにより、データ不足の問題に対処するために、修正された自然画像が使用される。
4つのベンチマークデータセットに関する総合的な実験により、提案した事前学習モデルが収束を効果的に加速できることが示されている。
論文 参考訳(メタデータ) (2022-01-05T03:11:21Z) - Learning monocular 3D reconstruction of articulated categories from
motion [39.811816510186475]
ビデオの自己スーパービジョンは、動きに基づくサイクルロスによる連続した3次元再構成の一貫性を強要する。
少数の局所的学習可能なハンドルの変位を介して3D表面を制御する3Dテンプレート変形の解釈可能なモデルを紹介します。
多様な形状, 視点, テクスチャを具体化して, 複数の対象カテゴリーのテクスチャを再現する。
論文 参考訳(メタデータ) (2021-03-30T13:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。