論文の概要: CSS: Overcoming Pose and Scene Challenges in Crowd-Sourced 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2409.08562v1
- Date: Fri, 13 Sep 2024 06:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-16 17:38:30.947780
- Title: CSS: Overcoming Pose and Scene Challenges in Crowd-Sourced 3D Gaussian Splatting
- Title(参考訳): CSS: クラウドソースの3Dガウススプレイティングにおけるポースとシーンの課題を克服する
- Authors: Runze Chen, Mingyu Xiao, Haiyong Luo, Fang Zhao, Fan Wu, Hao Xiong, Qi Liu, Meng Song,
- Abstract要約: クラウドソースのSplattingパイプラインは、クラウドソースイメージを使用したポーズフリーのシーン再構築を克服する。
提案手法は,AR,VR,大規模3D再構成において,より正確で柔軟なアプリケーションを実現する方法として,既存のアプローチに対する明確な改善を示す。
- 参考スコア(独自算出の注目度): 27.339611480393895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Crowd-Sourced Splatting (CSS), a novel 3D Gaussian Splatting (3DGS) pipeline designed to overcome the challenges of pose-free scene reconstruction using crowd-sourced imagery. The dream of reconstructing historically significant but inaccessible scenes from collections of photographs has long captivated researchers. However, traditional 3D techniques struggle with missing camera poses, limited viewpoints, and inconsistent lighting. CSS addresses these challenges through robust geometric priors and advanced illumination modeling, enabling high-quality novel view synthesis under complex, real-world conditions. Our method demonstrates clear improvements over existing approaches, paving the way for more accurate and flexible applications in AR, VR, and large-scale 3D reconstruction.
- Abstract(参考訳): クラウドソース画像を用いたポーズフリーシーン再構築の課題を克服するために,新しい3Dガウススティング(3DGS)パイプラインであるCrowd-Sourced Splatting(CSS)を紹介した。
歴史的に重要だがアクセス不能なシーンを写真集から再構築するという夢は、長い間研究者を魅了してきた。
しかし、従来の3D技術は、カメラのポーズの欠如、視点の制限、一貫性のない照明に悩まされている。
CSSは、ロバストな幾何学的先行と高度な照明モデリングを通じてこれらの課題に対処し、複雑な実世界の条件下で高品質な新規ビュー合成を可能にする。
提案手法は,AR,VR,大規模3D再構成において,より正確で柔軟なアプリケーションを実現する方法として,既存のアプローチに対する明確な改善を示す。
関連論文リスト
- 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - Crowd3D++: Robust Monocular Crowd Reconstruction with Upright Space [55.77397543011443]
本研究の目的は、カメラパラメータが不明な1枚の画像から、何百人もの人の3Dポーズ、形状、位置を再構築することである。
Crowd3Dは、複雑な3D人物位置決めを、堅牢なカメラと地上推定で2Dピクセル位置決めに変換するために提案されている。
Crowd3D++は、カメラパラメータの影響を排除し、提案した正準アップライト空間と接地認識正規化変換による収穫操作を行う。
論文 参考訳(メタデータ) (2024-11-09T16:49:59Z) - LucidFusion: Generating 3D Gaussians with Arbitrary Unposed Images [23.96972213606037]
我々はRelative Coordinate Map(RCM)を活用したフレキシブルなエンドツーエンドフィードフォワードフレームワークであるLucidFusionを紹介した。
LucidFusionは、画像と3Dワールドの徹底的なポーズを結びつける従来の方法とは異なり、RCMを使って幾何学的特徴を異なる視点に整合させる。
LucidFusionは、オリジナルのシングルイメージから3Dパイプラインとシームレスに統合され、詳細な3Dガウシアンを512倍の512ドルの解像度で生成する。
論文 参考訳(メタデータ) (2024-10-21T04:47:01Z) - SpikeGS: 3D Gaussian Splatting from Spike Streams with High-Speed Camera Motion [46.23575738669567]
新しいビュー合成は、3Dシーンのマルチビュー画像から新しい2Dレンダリングを生成することで重要な役割を果たす。
高フレームレートの高密度3D再構成は、現実世界の物体やシーンの詳細なモデリングを可能にする重要な技術として現れる。
スパイクカメラは、新しいタイプのニューロモルフィックセンサーであり、超高時間分解能でシーンを継続的に記録する。
論文 参考訳(メタデータ) (2024-07-14T03:19:30Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - Enhanced 3D Urban Scene Reconstruction and Point Cloud Densification using Gaussian Splatting and Google Earth Imagery [19.67372661944804]
ウォータールー大学を中心としたウォータールー地域の3次元ガウス散乱モデルを構築した。
我々は,従来の3次元視線合成結果よりもはるかに高い視線合成結果を得ることができる。
論文 参考訳(メタデータ) (2024-05-17T18:00:07Z) - Bootstrap 3D Reconstructed Scenes from 3D Gaussian Splatting [10.06208115191838]
トレーニングされた3D-GSを用いて,新しいビューのレンダリングを強化するブートストラップ手法を提案する。
以上の結果から,ブートストレッピングはアーティファクトを効果的に削減し,評価指標の明確化を図っている。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - StyleNeRF: A Style-based 3D-Aware Generator for High-resolution Image
Synthesis [92.25145204543904]
StyleNeRFは高解像度画像合成のための3次元認識型生成モデルである。
ニューラル放射場(NeRF)をスタイルベースジェネレータに統合する。
高品質な3D一貫性を維持しながら、対話的な速度で高解像度画像を合成することができる。
論文 参考訳(メタデータ) (2021-10-18T02:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。