論文の概要: GauU-Scene: A Scene Reconstruction Benchmark on Large Scale 3D
Reconstruction Dataset Using Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2401.14032v1
- Date: Thu, 25 Jan 2024 09:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 15:06:58.765526
- Title: GauU-Scene: A Scene Reconstruction Benchmark on Large Scale 3D
Reconstruction Dataset Using Gaussian Splatting
- Title(参考訳): gauu-scene:gaussian splattingを用いた大規模3次元復元データセットのシーン復元ベンチマーク
- Authors: Butian Xiong, Zhuo Li, Zhen Li
- Abstract要約: 本稿では,新たに開発された3D表現手法であるガウス・スプラッティングを用いた大規模シーン再構築ベンチマークを提案する。
U-Sceneは、RGBデータセットとLiDARの地上真実を包含した、1平方キロメートル以上に及ぶ。
このデータセットは、高度な空間分析のための都市環境と学術環境のユニークなブレンドを提供する。
- 参考スコア(独自算出の注目度): 5.968501319323899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel large-scale scene reconstruction benchmark using the
newly developed 3D representation approach, Gaussian Splatting, on our
expansive U-Scene dataset. U-Scene encompasses over one and a half square
kilometres, featuring a comprehensive RGB dataset coupled with LiDAR ground
truth. For data acquisition, we employed the Matrix 300 drone equipped with the
high-accuracy Zenmuse L1 LiDAR, enabling precise rooftop data collection. This
dataset, offers a unique blend of urban and academic environments for advanced
spatial analysis convers more than 1.5 km$^2$. Our evaluation of U-Scene with
Gaussian Splatting includes a detailed analysis across various novel
viewpoints. We also juxtapose these results with those derived from our
accurate point cloud dataset, highlighting significant differences that
underscore the importance of combine multi-modal information
- Abstract(参考訳): 我々は,新しい3次元表現手法gaussian splattingを用いた大規模シーン復元ベンチマークを,拡張型u-sceneデータセットに導入する。
U-Sceneは、LiDARの地上真実と組み合わせた総合的なRGBデータセットを特徴とする、1平方キロメートル以上に及ぶ。
データ取得には、高精度なZenmuse L1 LiDARを備えたMatrix 300ドローンを使用し、正確な屋上データ収集を可能にした。
このデータセットは、1.5 km$^2$以上の空間分析を行うための、都市環境と学術環境のユニークなブレンドを提供する。
U-Scene with Gaussian Splatting の評価には,様々な視点から詳細な分析が含まれている。
また、これらの結果を正確なポイントクラウドデータセットから派生したものと並べて、マルチモーダル情報の組み合わせの重要性を裏付ける重要な違いを強調します。
関連論文リスト
- LetsGo: Large-Scale Garage Modeling and Rendering via LiDAR-Assisted Gaussian Primitives [43.546806550985536]
LetsGoは、大規模ガレージモデリングとレンダリングのためのLiDAR支援ガウススプラッティングアプローチである。
多様な幾何学構造を持つ5つの拡張ガレージシーンからなるGarageWorldデータセットを提案する。
本稿では, 3次元ガウススプラッティングアルゴリズムのトレーニングのための新しい深度正規化器を提案し, 描画画像中の浮動小片を効果的に除去する。
論文 参考訳(メタデータ) (2024-04-15T12:50:44Z) - Virtually Enriched NYU Depth V2 Dataset for Monocular Depth Estimation: Do We Need Artificial Augmentation? [61.234412062595155]
我々は、単眼深度推定のために設計された、ニューヨーク深度v2データセットの事実上拡張版であるANYUを紹介する。
仮想世界の完全な3Dシーンを利用して人工データセットを生成する、よく知られたアプローチとは対照的に、ANYUはバーチャルリアリティーオブジェクトのRGB-D表現を取り入れて作成された。
ANYUは,アーキテクチャがかなり異なるディープニューラルネットワークの単眼深度推定性能と一般化を改善したことを示す。
論文 参考訳(メタデータ) (2024-04-15T05:44:03Z) - GauU-Scene V2: Assessing the Reliability of Image-Based Metrics with Expansive Lidar Image Dataset Using 3DGS and NeRF [2.4673377627220323]
本稿では,新しい3次元表現手法を用いたマルチモーダルな大規模シーン再構築ベンチマークを提案する。
GauU-Sceneは6.5平方キロメートル以上をカバーし、LiDARの地上真実と組み合わせた総合的なRGBデータセットを備えている。
ドローンによるデータセットのためのLiDARおよび画像アライメント手法を最初に提案する。
論文 参考訳(メタデータ) (2024-04-07T08:51:31Z) - TCLC-GS: Tightly Coupled LiDAR-Camera Gaussian Splatting for Surrounding Autonomous Driving Scenes [14.80202289008908]
都市シーンの3次元ガウススティング(3D-GS)に基づくほとんどの3次元ガウススティング(3D-GS)は、3D LiDARポイントで直接3Dガウスを初期化する。
我々は,LiDAR-Camera Gaussian Splatting (TCLC-GS) を設計し,LiDARとカメラセンサの双方の強度をフル活用する。
提案手法は高速な訓練を行い,1920x1280 (Waymo) の解像度で90 FPS,都市シナリオで1600x900 (nuScenes) の解像度で120 FPS の解像度でリアルタイム RGB と深度レンダリングを実現する。
論文 参考訳(メタデータ) (2024-04-03T02:26:15Z) - MVSplat: Efficient 3D Gaussian Splatting from Sparse Multi-View Images [102.7646120414055]
スパース多視点画像から学習した効率的なフィードフォワード3次元ガウススプラッティングモデルであるMVSplatを提案する。
最新の最先端のメソッドであるPixelSplatと比較して、我々のモデルは10倍のパラメータを減らし、2倍以上の高速なパラメータを推測する。
論文 参考訳(メタデータ) (2024-03-21T17:59:58Z) - Just Add $100 More: Augmenting NeRF-based Pseudo-LiDAR Point Cloud for Resolving Class-imbalance Problem [12.26293873825084]
本稿では,小クラスのミニチュアや現実世界のオブジェクトのサラウンドビューをキャプチャしたビデオから生成された擬似LiDAR点雲を活用することを提案する。
Pseudo Ground Truth Aug (PGT-Aug) と呼ばれるこの手法は, (i) 2D-to-3Dビュー合成モデルを用いたボリューム3Dインスタンス再構成, (ii)LiDAR強度推定によるオブジェクトレベルドメインアライメント, (iii) 地上情報と地図情報からのコンテキスト認識配置のハイブリッド化という3つのステップから構成される。
論文 参考訳(メタデータ) (2024-03-18T08:50:04Z) - GPS-Gaussian: Generalizable Pixel-wise 3D Gaussian Splatting for Real-time Human Novel View Synthesis [70.24111297192057]
我々は、文字の新たなビューをリアルタイムに合成するための新しいアプローチ、GPS-Gaussianを提案する。
提案手法は,スパースビューカメラ設定下での2K解像度のレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-12-04T18:59:55Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Semantic Segmentation on Swiss3DCities: A Benchmark Study on Aerial
Photogrammetric 3D Pointcloud Dataset [67.44497676652173]
スイスの3つの都市から採取された総面積2.7 km2$の屋外3Dポイントクラウドデータセットを紹介した。
データセットは、ポイントごとのラベルによるセマンティックセグメンテーションのために手動でアノテートされ、高解像度カメラを備えたマルチローターによって取得された画像のフォトグラムを用いて構築される。
論文 参考訳(メタデータ) (2020-12-23T21:48:47Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。