論文の概要: InfiniCity: Infinite-Scale City Synthesis
- arxiv url: http://arxiv.org/abs/2301.09637v1
- Date: Mon, 23 Jan 2023 18:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 12:41:00.838815
- Title: InfiniCity: Infinite-Scale City Synthesis
- Title(参考訳): infinicity:無限大の都市合成
- Authors: Chieh Hubert Lin, Hsin-Ying Lee, Willi Menapace, Menglei Chai,
Aliaksandr Siarohin, Ming-Hsuan Yang and Sergey Tulyakov
- Abstract要約: InfiniCityという新しいフレームワークを提案し、ランダムノイズから制約のない大きく3次元のグラウンド環境を構築し、レンダリングする。
無限画素画像合成モジュールは、鳥眼ビューから任意のスケールの2Dマップを生成する。
オクツリーベースのボクセル補完モジュールは生成された2Dマップを3Dオクツリーに持ち上げる。
ボクセルベースのニューラルレンダリングモジュールは、ボクセルをテキスト化し、2D画像をレンダリングする。
- 参考スコア(独自算出の注目度): 90.88350547332317
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Toward infinite-scale 3D city synthesis, we propose a novel framework,
InfiniCity, which constructs and renders an unconstrainedly large and
3D-grounded environment from random noises. InfiniCity decomposes the seemingly
impractical task into three feasible modules, taking advantage of both 2D and
3D data. First, an infinite-pixel image synthesis module generates
arbitrary-scale 2D maps from the bird's-eye view. Next, an octree-based voxel
completion module lifts the generated 2D map to 3D octrees. Finally, a
voxel-based neural rendering module texturizes the voxels and renders 2D
images. InfiniCity can thus synthesize arbitrary-scale and traversable 3D city
environments, and allow flexible and interactive editing from users. We
quantitatively and qualitatively demonstrate the efficacy of the proposed
framework. Project page: https://hubert0527.github.io/infinicity/
- Abstract(参考訳): 本研究では,無限大の3次元都市合成に向けて,ランダムノイズから制約のない大規模3次元地下環境の構築とレンダリングを行う新しいフレームワーク,InfiniCityを提案する。
infinicityは一見非現実的なタスクを3つの実現可能なモジュールに分解し、2dと3dの両方のデータを利用する。
まず、無限画素画像合成モジュールが、鳥眼ビューから任意のスケールの2Dマップを生成する。
次にoctreeベースのvoxel補完モジュールは、生成された2dマップを3dオクターレにリフトする。
最後に、voxelベースのニューラルネットワークモジュールがvoxelをテキスト化し、2dイメージをレンダリングする。
これにより、InfiniCityは任意の規模の3D都市環境を合成し、フレキシブルでインタラクティブな編集を可能にする。
提案手法の有効性を定量的かつ質的に実証する。
プロジェクトページ: https://hubert0527.github.io/infinicity/
関連論文リスト
- OSN: Infinite Representations of Dynamic 3D Scenes from Monocular Videos [7.616167860385134]
モノクラーRGBビデオから基礎となる動的3Dシーンの表現を復元することは、長い間困難であった。
我々はOSNと呼ばれる新しいフレームワークを導入し、入力ビデオにマッチする高機能な3Dシーン構成を学習する。
本手法は, きめ細かい3次元シーン形状を学習する上で, 明らかな優位性を示す。
論文 参考訳(メタデータ) (2024-07-08T05:03:46Z) - GaussianCity: Generative Gaussian Splatting for Unbounded 3D City Generation [44.203932215464214]
3D Gaussian Splatting (3D-GS)は、オブジェクトレベルの3D生成に対して、非常に効率的な代替手段として登場した。
しかし、有限スケールの3Dオブジェクトや人間から無限スケールの3D都市への3D-GSの適応は簡単ではない。
本稿では,1つのフィードフォワードパスで効率よく3D都市を合成するためのガウススティングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-10T17:59:55Z) - BerfScene: Bev-conditioned Equivariant Radiance Fields for Infinite 3D
Scene Generation [96.58789785954409]
本研究では,同変放射場と鳥眼視図のガイダンスを組み込んだ実用的で効率的な3次元表現を提案する。
局所的なシーンを合成し、スムーズな一貫性で縫い合わせることで、大規模で無限スケールの3Dシーンを作ります。
論文 参考訳(メタデータ) (2023-12-04T18:56:10Z) - MatrixCity: A Large-scale City Dataset for City-scale Neural Rendering
and Beyond [69.37319723095746]
都市規模のニューラルレンダリング研究のための大規模で包括的で高品質な合成データセットを構築します。
本研究では,地上カメラのポーズと追加データモダリティを伴って,航空・街路ビューを容易に収集するパイプラインを構築した。
その結果得られたパイロットデータセットMatrixCityには、合計28km2$の2つの都市地図から、67kの空中画像と452kのストリート画像が含まれている。
論文 参考訳(メタデータ) (2023-09-28T16:06:02Z) - Infinite Photorealistic Worlds using Procedural Generation [135.10236145573043]
インフィニゲン(Infinigen)は、自然界のフォトリアリスティックな3Dシーンのプロシージャジェネレータである。
形状からテクスチャに至るまで、すべての資産はランダム化された数学的ルールによってゼロから生成される。
論文 参考訳(メタデータ) (2023-06-15T17:46:16Z) - VoxFormer: Sparse Voxel Transformer for Camera-based 3D Semantic Scene
Completion [129.5975573092919]
VoxFormerはTransformerベースのセマンティックシーン補完フレームワークである。
2D画像のみから完全な3Dセマンティクスを出力できる。
我々のフレームワークは、幾何学の20.0%と意味論の18.1%を相対的に改善し、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2023-02-23T18:59:36Z) - 3D-aware Image Synthesis via Learning Structural and Textural
Representations [39.681030539374994]
生成モデルを作成することは、2D画像空間と3D物理世界を橋渡しするが、まだ難しい。
近年、GAN(Generative Adversarial Network)とNeRF(Neural Radiance Field)という3次元座標をピクセル値にマッピングする手法が試みられている。
本稿では,構造表現とテクスチャ表現を明示的に学習することで,高忠実度3次元画像合成のための新しいフレームワーク,VolumeGANを提案する。
論文 参考訳(メタデータ) (2021-12-20T18:59:40Z) - Novel-View Human Action Synthesis [39.72702883597454]
対象視点を合成する新しい3D推論を提案する。
まず,対象物体の3次元メッシュを推定し,粗いテクスチャを2次元画像からメッシュに転送する。
本研究では, 局地的, 地域的, グローバルなテクスチャを伝達することで, 半密度のテクスチャメッシュを創出する。
論文 参考訳(メタデータ) (2020-07-06T15:11:51Z) - 3D Human Mesh Regression with Dense Correspondence [95.92326689172877]
単一の2D画像から人体の3Dメッシュを推定することは、拡張現実や人間とロボットのインタラクションといった多くのアプリケーションにおいて重要なタスクである。
前者は畳み込みニューラルネットワーク(CNN)を用いて抽出した大域的画像特徴から3Dメッシュを再構成した。
本稿では,メッシュとUV空間の局所像特徴との密接な対応性を明確に確立する,DecoMRというモデルフリーな3次元メッシュ推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T08:50:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。