論文の概要: CSS: Overcoming Pose and Scene Challenges in Crowd-Sourced 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2409.08562v1
- Date: Fri, 13 Sep 2024 06:29:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-16 17:38:30.947780
- Title: CSS: Overcoming Pose and Scene Challenges in Crowd-Sourced 3D Gaussian Splatting
- Title(参考訳): CSS: クラウドソースの3Dガウススプレイティングにおけるポースとシーンの課題を克服する
- Authors: Runze Chen, Mingyu Xiao, Haiyong Luo, Fang Zhao, Fan Wu, Hao Xiong, Qi Liu, Meng Song,
- Abstract要約: クラウドソースのSplattingパイプラインは、クラウドソースイメージを使用したポーズフリーのシーン再構築を克服する。
提案手法は,AR,VR,大規模3D再構成において,より正確で柔軟なアプリケーションを実現する方法として,既存のアプローチに対する明確な改善を示す。
- 参考スコア(独自算出の注目度): 27.339611480393895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Crowd-Sourced Splatting (CSS), a novel 3D Gaussian Splatting (3DGS) pipeline designed to overcome the challenges of pose-free scene reconstruction using crowd-sourced imagery. The dream of reconstructing historically significant but inaccessible scenes from collections of photographs has long captivated researchers. However, traditional 3D techniques struggle with missing camera poses, limited viewpoints, and inconsistent lighting. CSS addresses these challenges through robust geometric priors and advanced illumination modeling, enabling high-quality novel view synthesis under complex, real-world conditions. Our method demonstrates clear improvements over existing approaches, paving the way for more accurate and flexible applications in AR, VR, and large-scale 3D reconstruction.
- Abstract(参考訳): クラウドソース画像を用いたポーズフリーシーン再構築の課題を克服するために,新しい3Dガウススティング(3DGS)パイプラインであるCrowd-Sourced Splatting(CSS)を紹介した。
歴史的に重要だがアクセス不能なシーンを写真集から再構築するという夢は、長い間研究者を魅了してきた。
しかし、従来の3D技術は、カメラのポーズの欠如、視点の制限、一貫性のない照明に悩まされている。
CSSは、ロバストな幾何学的先行と高度な照明モデリングを通じてこれらの課題に対処し、複雑な実世界の条件下で高品質な新規ビュー合成を可能にする。
提案手法は,AR,VR,大規模3D再構成において,より正確で柔軟なアプリケーションを実現する方法として,既存のアプローチに対する明確な改善を示す。
関連論文リスト
- ExScene: Free-View 3D Scene Reconstruction with Gaussian Splatting from a Single Image [4.366356163044466]
既存の方法は、単一視点からの視野が狭い低一貫性の3Dシーンを再構成するためにしばしば制限される。
任意の単視点画像から没入型3Dシーンを再構成する2段階パイプラインであるExSceneを提案する。
ExSceneは単一ビュー入力のみを使用して一貫した没入的なシーン再構築を実現する。
論文 参考訳(メタデータ) (2025-03-31T09:33:22Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - WonderVerse: Extendable 3D Scene Generation with Video Generative Models [28.002645364066005]
拡張可能な3Dシーンを生成するフレームワークであるWonderVerseを紹介する。
WonderVerseは、ビデオ生成基盤モデルに埋め込まれた強力な世界レベルの事前情報を活用する。
様々な3D再構成手法と互換性があり、効率的かつ高品質な生成を可能にする。
論文 参考訳(メタデータ) (2025-03-12T08:44:51Z) - S3R-GS: Streamlining the Pipeline for Large-Scale Street Scene Reconstruction [58.37746062258149]
3D Gaussian Splatting(3DGS)は、3D再構成の分野を変え、素晴らしいレンダリング品質とスピードを実現した。
既存の手法では、シーンサイズが大きくなるにつれて、ビューポイント当たりの再生コストが急速に増大する。
大規模なストリートシーン再構築のためのパイプラインをストリーム化する3DGSフレームワークであるS3R-GSを提案する。
論文 参考訳(メタデータ) (2025-03-11T09:37:13Z) - CoSurfGS:Collaborative 3D Surface Gaussian Splatting with Distributed Learning for Large Scene Reconstruction [68.81212850946318]
大規模表面再構成のための分散学習に基づく多エージェント協調高速3DGS表面再構成フレームワークを提案する。
具体的には,局所モデル圧縮(LMC)とモデルアグリゲーションスキーム(MAS)を開発し,大規模シーンの高品質な表面表現を実現する。
提案手法は高速でスケーラブルな高忠実表面再構成とフォトリアリスティックレンダリングを実現する。
論文 参考訳(メタデータ) (2024-12-23T14:31:15Z) - LiftImage3D: Lifting Any Single Image to 3D Gaussians with Video Generation Priors [107.83398512719981]
シングルイメージの3D再構成は、コンピュータビジョンの根本的な課題である。
遅延ビデオ拡散モデルの最近の進歩は、大規模ビデオデータから学ぶ有望な3D事前情報を提供する。
本稿では,LVDMの生成先行情報を効果的にリリースするフレームワークであるLiftImage3Dを提案する。
論文 参考訳(メタデータ) (2024-12-12T18:58:42Z) - Gaussian Scenes: Pose-Free Sparse-View Scene Reconstruction using Depth-Enhanced Diffusion Priors [5.407319151576265]
本研究では2次元画像の粗い集合から360度シーンのポーズなし(カメラパラメータなしで)再構成のための生成的アプローチを提案する。
画像から画像への生成モデルを提案し、3Dシーンの新たな画像レンダリングと深度マップにおいて、欠落した詳細を描き、アーティファクトを除去する。
論文 参考訳(メタデータ) (2024-11-24T19:34:58Z) - 3D Convex Splatting: Radiance Field Rendering with 3D Smooth Convexes [87.01284850604495]
多視点画像から幾何学的に有意な放射場をモデル化するためのプリミティブとして3次元滑らかな凸を利用した3次元凸法(3DCS)を提案する。
3DCSは、MipNeizer, Tanks and Temples, Deep Blendingなどのベンチマークで、3DGSよりも優れたパフォーマンスを実現している。
本結果は,高品質なシーン再構築のための新しい標準となる3Dコンベクシングの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-22T14:31:39Z) - Crowd3D++: Robust Monocular Crowd Reconstruction with Upright Space [55.77397543011443]
本研究の目的は、カメラパラメータが不明な1枚の画像から、何百人もの人の3Dポーズ、形状、位置を再構築することである。
Crowd3Dは、複雑な3D人物位置決めを、堅牢なカメラと地上推定で2Dピクセル位置決めに変換するために提案されている。
Crowd3D++は、カメラパラメータの影響を排除し、提案した正準アップライト空間と接地認識正規化変換による収穫操作を行う。
論文 参考訳(メタデータ) (2024-11-09T16:49:59Z) - LucidFusion: Generating 3D Gaussians with Arbitrary Unposed Images [23.96972213606037]
我々はRelative Coordinate Map(RCM)を活用したフレキシブルなエンドツーエンドフィードフォワードフレームワークであるLucidFusionを紹介した。
LucidFusionは、画像と3Dワールドの徹底的なポーズを結びつける従来の方法とは異なり、RCMを使って幾何学的特徴を異なる視点に整合させる。
LucidFusionは、オリジナルのシングルイメージから3Dパイプラインとシームレスに統合され、詳細な3Dガウシアンを512倍の512ドルの解像度で生成する。
論文 参考訳(メタデータ) (2024-10-21T04:47:01Z) - SpikeGS: 3D Gaussian Splatting from Spike Streams with High-Speed Camera Motion [46.23575738669567]
新しいビュー合成は、3Dシーンのマルチビュー画像から新しい2Dレンダリングを生成することで重要な役割を果たす。
高フレームレートの高密度3D再構成は、現実世界の物体やシーンの詳細なモデリングを可能にする重要な技術として現れる。
スパイクカメラは、新しいタイプのニューロモルフィックセンサーであり、超高時間分解能でシーンを継続的に記録する。
論文 参考訳(メタデータ) (2024-07-14T03:19:30Z) - SpotlessSplats: Ignoring Distractors in 3D Gaussian Splatting [44.42317312908314]
3D Gaussian Splatting (3DGS)は、3D再構成のための有望な技術であり、効率的なトレーニングとレンダリング速度を提供する。
現在の手法では、3DGSのビュー間の一貫性の仮定を満たすために、高度に制御された環境が必要である。
SpotLessSplatsは、トレーニング済みと汎用の機能と頑健な最適化を併用して、過渡的障害を効果的に無視するアプローチである。
論文 参考訳(メタデータ) (2024-06-28T17:07:11Z) - Enhanced 3D Urban Scene Reconstruction and Point Cloud Densification using Gaussian Splatting and Google Earth Imagery [19.67372661944804]
ウォータールー大学を中心としたウォータールー地域の3次元ガウス散乱モデルを構築した。
我々は,従来の3次元視線合成結果よりもはるかに高い視線合成結果を得ることができる。
論文 参考訳(メタデータ) (2024-05-17T18:00:07Z) - Bootstrap 3D Reconstructed Scenes from 3D Gaussian Splatting [10.06208115191838]
トレーニングされた3D-GSを用いて,新しいビューのレンダリングを強化するブートストラップ手法を提案する。
以上の結果から,ブートストレッピングはアーティファクトを効果的に削減し,評価指標の明確化を図っている。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z) - 3D-SceneDreamer: Text-Driven 3D-Consistent Scene Generation [51.64796781728106]
本稿では,2次元拡散モデル以前の自然画像と,現在のシーンのグローバルな3次元情報を利用して,高品質で新しいコンテンツを合成する生成的精細化ネットワークを提案する。
提案手法は,視覚的品質と3次元の整合性を改善した多種多様なシーン生成と任意のカメラトラジェクトリをサポートする。
論文 参考訳(メタデータ) (2024-03-14T14:31:22Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Denoising Diffusion via Image-Based Rendering [54.20828696348574]
実世界の3Dシーンの高速かつ詳細な再構築と生成を可能にする最初の拡散モデルを提案する。
まず、大きな3Dシーンを効率よく正確に表現できる新しいニューラルシーン表現であるIBプレーンを導入する。
第二に,2次元画像のみを用いて,この新たな3次元シーン表現の事前学習を行うためのデノイング拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-05T19:00:45Z) - StyleNeRF: A Style-based 3D-Aware Generator for High-resolution Image
Synthesis [92.25145204543904]
StyleNeRFは高解像度画像合成のための3次元認識型生成モデルである。
ニューラル放射場(NeRF)をスタイルベースジェネレータに統合する。
高品質な3D一貫性を維持しながら、対話的な速度で高解像度画像を合成することができる。
論文 参考訳(メタデータ) (2021-10-18T02:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。