論文の概要: CSS: Overcoming Pose and Scene Challenges in Crowd-Sourced 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2409.08562v1
- Date: Fri, 13 Sep 2024 06:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 17:38:30.947780
- Title: CSS: Overcoming Pose and Scene Challenges in Crowd-Sourced 3D Gaussian Splatting
- Title(参考訳): CSS: クラウドソースの3Dガウススプレイティングにおけるポースとシーンの課題を克服する
- Authors: Runze Chen, Mingyu Xiao, Haiyong Luo, Fang Zhao, Fan Wu, Hao Xiong, Qi Liu, Meng Song,
- Abstract要約: クラウドソースのSplattingパイプラインは、クラウドソースイメージを使用したポーズフリーのシーン再構築を克服する。
提案手法は,AR,VR,大規模3D再構成において,より正確で柔軟なアプリケーションを実現する方法として,既存のアプローチに対する明確な改善を示す。
- 参考スコア(独自算出の注目度): 27.339611480393895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Crowd-Sourced Splatting (CSS), a novel 3D Gaussian Splatting (3DGS) pipeline designed to overcome the challenges of pose-free scene reconstruction using crowd-sourced imagery. The dream of reconstructing historically significant but inaccessible scenes from collections of photographs has long captivated researchers. However, traditional 3D techniques struggle with missing camera poses, limited viewpoints, and inconsistent lighting. CSS addresses these challenges through robust geometric priors and advanced illumination modeling, enabling high-quality novel view synthesis under complex, real-world conditions. Our method demonstrates clear improvements over existing approaches, paving the way for more accurate and flexible applications in AR, VR, and large-scale 3D reconstruction.
- Abstract(参考訳): クラウドソース画像を用いたポーズフリーシーン再構築の課題を克服するために,新しい3Dガウススティング(3DGS)パイプラインであるCrowd-Sourced Splatting(CSS)を紹介した。
歴史的に重要だがアクセス不能なシーンを写真集から再構築するという夢は、長い間研究者を魅了してきた。
しかし、従来の3D技術は、カメラのポーズの欠如、視点の制限、一貫性のない照明に悩まされている。
CSSは、ロバストな幾何学的先行と高度な照明モデリングを通じてこれらの課題に対処し、複雑な実世界の条件下で高品質な新規ビュー合成を可能にする。
提案手法は,AR,VR,大規模3D再構成において,より正確で柔軟なアプリケーションを実現する方法として,既存のアプローチに対する明確な改善を示す。
関連論文リスト
- CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction [68.81212850946318]
大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,大規模シーンの高品質な表面表現を実現する。
提案手法は高速でスケーラブルな高忠実表面再構成とフォトリアリスティックレンダリングを実現する。
論文 参考訳(メタデータ) (2024-12-23T14:31:15Z) - LiftImage3D: Lifting Any Single Image to 3D Gaussians with Video Generation Priors [107.83398512719981]
シングルイメージの3D再構成は、コンピュータビジョンの根本的な課題である。
遅延ビデオ拡散モデルの最近の進歩は、大規模ビデオデータから学ぶ有望な3D事前情報を提供する。
本稿では,LVDMの生成先行情報を効果的にリリースするフレームワークであるLiftImage3Dを提案する。
論文 参考訳(メタデータ) (2024-12-12T18:58:42Z) - 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - SpikeGS: 3D Gaussian Splatting from Spike Streams with High-Speed Camera Motion [46.23575738669567]
新しいビュー合成は、3Dシーンのマルチビュー画像から新しい2Dレンダリングを生成することで重要な役割を果たす。
高フレームレートの高密度3D再構成は、現実世界の物体やシーンの詳細なモデリングを可能にする重要な技術として現れる。
スパイクカメラは、新しいタイプのニューロモルフィックセンサーであり、超高時間分解能でシーンを継続的に記録する。
論文 参考訳(メタデータ) (2024-07-14T03:19:30Z) - Enhanced 3D Urban Scene Reconstruction and Point Cloud Densification using Gaussian Splatting and Google Earth Imagery [19.67372661944804]
ウォータールー大学を中心としたウォータールー地域の3次元ガウス散乱モデルを構築した。
我々は,従来の3次元視線合成結果よりもはるかに高い視線合成結果を得ることができる。
論文 参考訳(メタデータ) (2024-05-17T18:00:07Z) - Bootstrap 3D Reconstructed Scenes from 3D Gaussian Splatting [10.06208115191838]
トレーニングされた3D-GSを用いて,新しいビューのレンダリングを強化するブートストラップ手法を提案する。
以上の結果から,ブートストレッピングはアーティファクトを効果的に削減し,評価指標の明確化を図っている。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - StyleNeRF: A Style-based 3D-Aware Generator for High-resolution Image
Synthesis [92.25145204543904]
StyleNeRFは高解像度画像合成のための3次元認識型生成モデルである。
ニューラル放射場(NeRF)をスタイルベースジェネレータに統合する。
高品質な3D一貫性を維持しながら、対話的な速度で高解像度画像を合成することができる。
論文 参考訳(メタデータ) (2021-10-18T02:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。