論文の概要: Procedural 3D Terrain Generation using Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2010.06411v1
- Date: Tue, 13 Oct 2020 14:15:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 00:50:57.262566
- Title: Procedural 3D Terrain Generation using Generative Adversarial Networks
- Title(参考訳): 生成逆ネットワークを用いた手続き型3次元地形生成
- Authors: Emmanouil Panagiotou and Eleni Charou
- Abstract要約: 我々はGAN(Generative Adversarial Networks)を用いて、衛星やドローンが捉えた風景のリモートセンシング画像の分布に基づいて、現実的な3D環境を作り出す。
我々は、トレーニング中に提供されるリモートセンシングされた景観に関連して、高所分布と彩色が可能な3次元景観を構築することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Procedural 3D Terrain generation has become a necessity in open world games,
as it can provide unlimited content, through a functionally infinite number of
different areas, for players to explore. In our approach, we use Generative
Adversarial Networks (GAN) to yield realistic 3D environments based on the
distribution of remotely sensed images of landscapes, captured by satellites or
drones. Our task consists of synthesizing a random but plausible RGB satellite
image and generating a corresponding Height Map in the form of a 3D point cloud
that will serve as an appropriate mesh of the landscape. For the first step, we
utilize a GAN trained with satellite images that manages to learn the
distribution of the dataset, creating novel satellite images. For the second
part, we need a one-to-one mapping from RGB images to Digital Elevation Models
(DEM). We deploy a Conditional Generative Adversarial network (CGAN), which is
the state-of-the-art approach to image-to-image translation, to generate a
plausible height map for every randomly generated image of the first model.
Combining the generated DEM and RGB image, we are able to construct 3D scenery
consisting of a plausible height distribution and colorization, in relation to
the remotely sensed landscapes provided during training.
- Abstract(参考訳): プロシージャ3DTerrain生成は、プレイヤーが探索する機能的に無限の領域を通じて無制限のコンテンツを提供できるため、オープンワールドゲームにおいて必要となっている。
提案手法では,衛星やドローンが捉えたリモートセンシング画像の分布に基づいて,GAN(Generative Adversarial Networks)を用いてリアルな3D環境を生成する。
我々の課題は、ランダムだがプラウチブルなRGB衛星画像の合成と、ランドスケープの適切なメッシュとして機能する3Dポイント雲の形で対応するハイトマップの生成である。
最初のステップでは、衛星画像で訓練されたGANを使用して、データセットの分布を学習し、新しい衛星画像を作成する。
第2の部分は、RGBイメージからDEM(Digital Elevation Models)への1対1のマッピングが必要です。
画像から画像への変換における最先端のアプローチである条件付き生成逆ネットワーク(cgan)を展開し、第1モデルのランダムに生成された画像毎に妥当な高さマップを生成する。
生成したDEM画像とRGB画像を組み合わせることで、トレーニング中に提供されるリモートセンシングされた景観と関連して、可視な高さ分布と彩色からなる3次元景観を構築することができる。
関連論文リスト
- GenRC: Generative 3D Room Completion from Sparse Image Collections [17.222652213723485]
GenRCは、高忠実度テクスチャを備えたルームスケールの3Dメッシュを完成させる、自動トレーニングフリーパイプラインである。
E-Diffusionは、大域幾何学と外観整合性を保証するビュー一貫性パノラマRGBD画像を生成する。
GenRCは、ScanNetとARKitScenesデータセットのほとんどの外観と幾何学的メトリクスの下で、最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2024-07-17T18:10:40Z) - Sat2Scene: 3D Urban Scene Generation from Satellite Images with Diffusion [77.34078223594686]
本稿では,3次元スパース表現に拡散モデルを導入し,それらをニューラルレンダリング技術と組み合わせることで,直接3次元シーン生成のための新しいアーキテクチャを提案する。
具体的には、まず3次元拡散モデルを用いて、所定の幾何学の点レベルのテクスチャ色を生成し、次にフィードフォワード方式でシーン表現に変換する。
2つの都市規模データセットを用いた実験により,衛星画像から写真リアルなストリートビュー画像シーケンスとクロスビュー都市シーンを生成する能力を示した。
論文 参考訳(メタデータ) (2024-01-19T16:15:37Z) - Inpaint4DNeRF: Promptable Spatio-Temporal NeRF Inpainting with
Generative Diffusion Models [59.96172701917538]
現在のニューラル・ラジアンス・フィールド(NeRF)はフォトリアリスティック・ノベルビューを生成することができる。
本稿ではInpaint4DNeRFを提案する。
論文 参考訳(メタデータ) (2023-12-30T11:26:55Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - LDM3D: Latent Diffusion Model for 3D [5.185393944663932]
本研究では,与えられたテキストプロンプトから画像と深度マップデータを生成する3D(LDM3D)の潜時拡散モデルを提案する。
また、生成したRGB画像と深度マップを用いて、没入的でインタラクティブな360度ビュー体験を作成するDepthFusionというアプリケーションを開発した。
論文 参考訳(メタデータ) (2023-05-18T10:15:06Z) - Shape, Pose, and Appearance from a Single Image via Bootstrapped
Radiance Field Inversion [54.151979979158085]
提案手法では,自然画像に対する基本的エンドツーエンド再構築フレームワークを導入し,正確な地平のポーズが得られない。
そこで,モデルが解の第一の推算を生成するハイブリッド・インバージョン・スキームを適用する。
当社のフレームワークでは,イメージを10ステップでデレンダリングすることが可能で,現実的なシナリオで使用することが可能です。
論文 参考訳(メタデータ) (2022-11-21T17:42:42Z) - Simple and Effective Synthesis of Indoor 3D Scenes [78.95697556834536]
1枚以上の画像から3D屋内シーンを没入する問題について検討する。
我々の狙いは、新しい視点から高解像度の画像とビデオを作成することである。
本稿では,不完全点雲の再投影から高解像度のRGB-D画像へ直接マップするイメージ・ツー・イメージのGANを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:54:46Z) - 3D-aware Image Synthesis via Learning Structural and Textural
Representations [39.681030539374994]
生成モデルを作成することは、2D画像空間と3D物理世界を橋渡しするが、まだ難しい。
近年、GAN(Generative Adversarial Network)とNeRF(Neural Radiance Field)という3次元座標をピクセル値にマッピングする手法が試みられている。
本稿では,構造表現とテクスチャ表現を明示的に学習することで,高忠実度3次元画像合成のための新しいフレームワーク,VolumeGANを提案する。
論文 参考訳(メタデータ) (2021-12-20T18:59:40Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。