論文の概要: MatrixCity: A Large-scale City Dataset for City-scale Neural Rendering
and Beyond
- arxiv url: http://arxiv.org/abs/2309.16553v1
- Date: Thu, 28 Sep 2023 16:06:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 13:36:33.093662
- Title: MatrixCity: A Large-scale City Dataset for City-scale Neural Rendering
and Beyond
- Title(参考訳): matrixcity: 都市規模のニューラルレンダリングのための大規模都市データセット
- Authors: Yixuan Li, Lihan Jiang, Linning Xu, Yuanbo Xiangli, Zhenzhi Wang,
Dahua Lin, Bo Dai
- Abstract要約: 都市規模のニューラルレンダリング研究のための大規模で包括的で高品質な合成データセットを構築します。
本研究では,地上カメラのポーズと追加データモダリティを伴って,航空・街路ビューを容易に収集するパイプラインを構築した。
その結果得られたパイロットデータセットMatrixCityには、合計28km2$の2つの都市地図から、67kの空中画像と452kのストリート画像が含まれている。
- 参考スコア(独自算出の注目度): 69.37319723095746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural radiance fields (NeRF) and its subsequent variants have led to
remarkable progress in neural rendering. While most of recent neural rendering
works focus on objects and small-scale scenes, developing neural rendering
methods for city-scale scenes is of great potential in many real-world
applications. However, this line of research is impeded by the absence of a
comprehensive and high-quality dataset, yet collecting such a dataset over real
city-scale scenes is costly, sensitive, and technically difficult. To this end,
we build a large-scale, comprehensive, and high-quality synthetic dataset for
city-scale neural rendering researches. Leveraging the Unreal Engine 5 City
Sample project, we develop a pipeline to easily collect aerial and street city
views, accompanied by ground-truth camera poses and a range of additional data
modalities. Flexible controls over environmental factors like light, weather,
human and car crowd are also available in our pipeline, supporting the need of
various tasks covering city-scale neural rendering and beyond. The resulting
pilot dataset, MatrixCity, contains 67k aerial images and 452k street images
from two city maps of total size $28km^2$. On top of MatrixCity, a thorough
benchmark is also conducted, which not only reveals unique challenges of the
task of city-scale neural rendering, but also highlights potential improvements
for future works. The dataset and code will be publicly available at our
project page: https://city-super.github.io/matrixcity/.
- Abstract(参考訳): neural radiance fields (nerf)とそれに続く変種は、ニューラルネットワークのレンダリングの著しい進歩をもたらした。
最近のニューラルレンダリングは、オブジェクトや小さなシーンに焦点を当てているが、都市規模のシーンのためのニューラルレンダリング手法の開発は多くの現実世界のアプリケーションにおいて大きな可能性がある。
しかし、この一連の研究は、総合的で高品質なデータセットが存在しないことから妨げられているが、実際の都市規模のシーンでこのようなデータセットを収集することは、費用がかかり、センシティブで、技術的に困難である。
この目的のために,都市規模のニューラルレンダリング研究のための大規模,包括的,高品質な合成データセットを構築する。
我々はunreal engine 5 city sample projectを利用して、地上カメラのポーズと追加データモダリティを伴って、空と街並みのビューを簡単に収集するパイプラインを開発した。
光、天気、人、車の群衆といった環境要因に対する柔軟なコントロールも私たちのパイプラインで利用可能です。
得られたパイロットデータセットMatrixCityは、合計28km^2$の2つの都市マップから、67kの空中画像と452kのストリート画像を含んでいる。
MatrixCityに加えて、徹底的なベンチマークも実施されており、都市規模のニューラルレンダリングのタスクにおけるユニークな課題だけでなく、将来の作業に対する潜在的な改善も強調されている。
データセットとコードは、プロジェクトのページで公開されます。
関連論文リスト
- Comprehensive Dataset for Urban Streetlight Analysis [0.0]
この記事では、インドの大通りからシステマティックに撮影された800点以上の高解像度の街灯画像を包括的に収集する。
各画像はバイナリクラスラベルに基づいてラベル付けされ、ディレクトリにグループ化されている。
論文 参考訳(メタデータ) (2024-07-01T09:26:30Z) - Dynamic 3D Gaussian Fields for Urban Areas [60.64840836584623]
大規模でダイナミックな都市部における新規ビュー合成(NVS)のための効率的なニューラル3Dシーン表現法を提案する。
本研究では,大規模都市にスケールするニューラルネットワークシーン表現である4DGFを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:07:39Z) - CityRefer: Geography-aware 3D Visual Grounding Dataset on City-scale
Point Cloud Data [15.526523262690965]
都市レベルの視覚的接地のためのCityReferデータセットについて紹介する。
データセットは、SensatUrbanの都市シーンに現れる3Dオブジェクトの35kの自然言語記述と、OpenStreetMapと同期する5kのランドマークラベルで構成されている。
論文 参考訳(メタデータ) (2023-10-28T18:05:32Z) - CityDreamer: Compositional Generative Model of Unbounded 3D Cities [44.203932215464214]
CityDreamerは、非有界な3D都市向けに特別に設計された合成モデルである。
我々は、鳥の視線シーン表現を採用し、インスタンス指向と物指向のニューラルフィールドの両方にボリュームレンダリングを採用する。
CityDreamerは、現実的な3D都市を生成するだけでなく、生成された都市内の局所的な編集でも、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-01T17:57:02Z) - Building3D: An Urban-Scale Dataset and Benchmarks for Learning Roof
Structures from Point Clouds [4.38301148531795]
既存の3Dモデリング用のデータセットは主に家具や車などの一般的なオブジェクトに焦点を当てている。
エストニアの16都市約998Km2をカバーする,160万以上の建物と対応する点雲,メッシュ,ワイヤフレームモデルからなる都市規模データセットを提案する。
実験結果から,ビルディング3Dには高いクラス内分散,データ不均衡,大規模ノイズといった課題があることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T21:38:57Z) - DNA-Rendering: A Diverse Neural Actor Repository for High-Fidelity
Human-centric Rendering [126.00165445599764]
ニューラルアクターレンダリングのための人間のパフォーマンスデータの大規模かつ高忠実なリポジトリであるDNAレンダリングを提案する。
我々のデータセットには、1500人以上の被験者、5000のモーションシーケンス、67.5Mのフレームのデータボリュームが含まれています。
我々は,最大解像度4096 x 3000の60個の同期カメラと15fpsの速度,ステルカメラキャリブレーションステップを含む,データをキャプチャするプロフェッショナルなマルチビューシステムを構築した。
論文 参考訳(メタデータ) (2023-07-19T17:58:03Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。