論文の概要: CityDreamer: Compositional Generative Model of Unbounded 3D Cities
- arxiv url: http://arxiv.org/abs/2309.00610v1
- Date: Fri, 1 Sep 2023 17:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 12:40:15.317792
- Title: CityDreamer: Compositional Generative Model of Unbounded 3D Cities
- Title(参考訳): CityDreamer: 無制限3次元都市の構成生成モデル
- Authors: Haozhe Xie, Zhaoxi Chen, Fangzhou Hong, Ziwei Liu
- Abstract要約: 本研究では,3次元都市を対象とした合成モデルであるCityDreamerを提案する。
我々は2つのデータセット、OSMとGoogleEarthを構築し、膨大な量の現実世界の都市画像を含む。
CityDreamerは、さまざまな生活スタイルの3D都市を創造する最先端の手法よりも優れていることを証明している。
- 参考スコア(独自算出の注目度): 48.289620356556185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, extensive research has focused on 3D natural scene
generation, but the domain of 3D city generation has not received as much
exploration. This is due to the greater challenges posed by 3D city generation,
mainly because humans are more sensitive to structural distortions in urban
environments. Additionally, generating 3D cities is more complex than 3D
natural scenes since buildings, as objects of the same class, exhibit a wider
range of appearances compared to the relatively consistent appearance of
objects like trees in natural scenes. To address these challenges, we propose
CityDreamer, a compositional generative model designed specifically for
unbounded 3D cities, which separates the generation of building instances from
other background objects, such as roads, green lands, and water areas, into
distinct modules. Furthermore, we construct two datasets, OSM and GoogleEarth,
containing a vast amount of real-world city imagery to enhance the realism of
the generated 3D cities both in their layouts and appearances. Through
extensive experiments, CityDreamer has proven its superiority over
state-of-the-art methods in generating a wide range of lifelike 3D cities.
- Abstract(参考訳): 近年,3次元自然景観の研究が盛んに行われているが,3次元都市生成の領域はそれほど探検を受けていない。
これは、主に人間が都市環境の構造的歪みに敏感であるために、3D都市が生み出す大きな課題が原因である。
さらに、同じクラスの建造物である建物が、自然の場面で木のような比較的一貫した外観と比べ、より広い外観を示すため、3d都市の生成は3d自然シーンよりも複雑である。
このような課題に対処するために,我々は,道路,緑地,水域など他の背景オブジェクトからビルディングインスタンスの生成を分離した,非有界な3D都市を対象とした合成生成モデルであるCityDreamerを提案する。
さらに、OSMとGoogleEarthという2つのデータセットを構築し、そのレイアウトと外観の両方で生成された3D都市の現実性を高めるために、大量の実世界の都市画像を含む。
大規模な実験を通じて、CityDreamerは、さまざまな生活スタイルの3D都市を創造する最先端の手法よりも優れていることを証明した。
関連論文リスト
- Urban Architect: Steerable 3D Urban Scene Generation with Layout Prior [43.14168074750301]
合成3Dレイアウト表現をテキストから3Dのパラダイムに導入し、さらに先行として機能する。
単純な幾何学的構造と明示的な配置関係を持つ意味的プリミティブの集合から構成される。
また,様々なシーン編集デモを行い,ステアブルな都市景観生成の力を示す。
論文 参考訳(メタデータ) (2024-04-10T06:41:30Z) - Urban Scene Diffusion through Semantic Occupancy Map [49.20779809250597]
UrbanDiffusionは、Bird's-Eye View (BEV)マップに条件付き3次元拡散モデルである。
我々のモデルは,潜在空間内のシーンレベルの構造の分布を学習する。
実世界の運転データセットをトレーニングした後、我々のモデルは多様な都市シーンを生成することができる。
論文 参考訳(メタデータ) (2024-03-18T11:54:35Z) - GALA3D: Towards Text-to-3D Complex Scene Generation via Layout-guided
Generative Gaussian Splatting [54.39663556987393]
GALA3D, GALA3D, 生成3D GAussian, LAyout-guided control, for effective compositional text-to-3D generation。
GALA3Dは、最先端のシーンレベルの3Dコンテンツ生成と制御可能な編集のための、ユーザフレンドリーでエンドツーエンドのフレームワークである。
論文 参考訳(メタデータ) (2024-02-11T13:40:08Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - SceneWiz3D: Towards Text-guided 3D Scene Composition [134.71933134180782]
既存のアプローチでは、大規模なテキスト・ツー・イメージモデルを使用して3D表現を最適化するか、オブジェクト中心のデータセット上で3Dジェネレータをトレーニングする。
テキストから高忠実度3Dシーンを合成する新しい手法であるSceneWiz3Dを紹介する。
論文 参考訳(メタデータ) (2023-12-13T18:59:30Z) - SceneDreamer: Unbounded 3D Scene Generation from 2D Image Collections [49.802462165826554]
SceneDreamerは,非有界な3次元シーンの無条件生成モデルである。
フレームワークは,3Dアノテーションを使わずに,Wild 2Dイメージコレクションのみから学習する。
論文 参考訳(メタデータ) (2023-02-02T18:59:16Z) - Projective Urban Texturing [8.349665441428925]
没入型都市環境における3次元都市メッシュのテクスチャ自動生成手法を提案する。
Projective Urban Texturing (PUT)は、実際のパノラマ画像から見えない都市メッシュへのテクスチャスタイルを再ターゲットする。
PUTは、未ペア画像からテクスチャへの変換用に設計されたニューラルアーキテクチャの、対照的で敵対的なトレーニングに依存している。
論文 参考訳(メタデータ) (2022-01-25T14:56:52Z) - UrbanScene3D: A Large Scale Urban Scene Dataset and Simulator [13.510431691480727]
本論文では,Unreal Engine 4 と AirSim をベースとした手頃なシミュレータに付随する大規模都市景観データセットを提案する。
従来の2D情報や人為的な3DCADモデルに基づいた作品とは異なり、UrbanScene3Dには、コンパクトな人造モデルと、空中画像で再構成された詳細な現実世界モデルの両方が含まれている。
論文 参考訳(メタデータ) (2021-07-09T07:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。