論文の概要: World-GAN: a Generative Model for Minecraft Worlds
- arxiv url: http://arxiv.org/abs/2106.10155v1
- Date: Fri, 18 Jun 2021 14:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:11:03.209114
- Title: World-GAN: a Generative Model for Minecraft Worlds
- Title(参考訳): World-GAN:Minecraft Worldsのジェネレーティブモデル
- Authors: Maren Awiszus, Frederik Schubert, Bodo Rosenhahn
- Abstract要約: この研究は、Minecraftで機械学習を介してデータ駆動の手続き型コンテンツ生成を実行する最初の方法であるWorld-GANを紹介する。
GAN(Generative Adversarial Network)アーキテクチャをベースとして,任意のサンプルから任意のサイズの世界スニペットを作成できる。
- 参考スコア(独自算出の注目度): 27.221938979891384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces World-GAN, the first method to perform data-driven
Procedural Content Generation via Machine Learning in Minecraft from a single
example. Based on a 3D Generative Adversarial Network (GAN) architecture, we
are able to create arbitrarily sized world snippets from a given sample. We
evaluate our approach on creations from the community as well as structures
generated with the Minecraft World Generator. Our method is motivated by the
dense representations used in Natural Language Processing (NLP) introduced with
word2vec [1]. The proposed block2vec representations make World-GAN independent
from the number of different blocks, which can vary a lot in Minecraft, and
enable the generation of larger levels. Finally, we demonstrate that changing
this new representation space allows us to change the generated style of an
already trained generator. World-GAN enables its users to generate Minecraft
worlds based on parts of their creations.
- Abstract(参考訳): この研究は、Minecraftで機械学習を通じてデータ駆動の手続き的コンテンツ生成を実行する最初の方法であるWorld-GANを紹介する。
GAN(Generative Adversarial Network)アーキテクチャに基づいて,任意のサンプルから任意のサイズの世界スニペットを作成することができる。
我々は、Minecraft World Generatorで生成された構造と同様に、コミュニティからの創造物に対する我々のアプローチを評価する。
本手法は, word2vec [1] で導入された自然言語処理(NLP)で使用される高密度表現に動機づけられる。
提案されたblock2vec表現により、world-ganは異なるブロックの数から独立しており、minecraftでは多くの変更が可能であり、より大きなレベルを生成することができる。
最後に、この新しい表現空間を変更することで、すでに訓練済みのジェネレータの生成スタイルを変更できることを実証する。
World-GANは、ユーザーが創造物の一部に基づいてMinecraft世界を生成することを可能にする。
関連論文リスト
- 3D Building Generation in Minecraft via Large Language Models [1.9670700129679104]
本稿では,大規模言語モデル(LLM)がサンドボックスゲームであるMinecraftにおける3Dビルディングの生成にどのように貢献するかを考察する。
本稿では,プロンプトの精細化,層間表現の復号化,修復を含む,Minecraft (T2BM) モデルを提案する。
論文 参考訳(メタデータ) (2024-06-13T02:21:07Z) - DreamCraft: Text-Guided Generation of Functional 3D Environments in Minecraft [19.9639990460142]
本研究では,オープンワールドゲームMinecraftにおけるフリーフォームテキストプロンプトから機能的な3Dアーティファクトを生成する手法を提案する。
我々の手法であるDreamCraftは、与えられたテキスト記述にマッチするアーティファクトを表現するために、量子化されたNeRF(Neural Radiance Fields)を訓練する。
対象の分布にマッチする3D構造の生成や,ブロック型に対する特定の隣接ルールに従うために,これをどのように活用するかを示す。
論文 参考訳(メタデータ) (2024-04-23T21:57:14Z) - T-Pixel2Mesh: Combining Global and Local Transformer for 3D Mesh Generation from a Single Image [84.08705684778666]
本稿では,P2Mの粗大なアプローチにインスパイアされたトランスフォーマーブーストアーキテクチャT-Pixel2Meshを提案する。
具体的には,大域変換器を用いて局所的な形状を制御し,局所的な幾何学的詳細を洗練させる。
ShapeNetの実験では最先端の性能が実証され,実世界のデータでは一般化能力が示された。
論文 参考訳(メタデータ) (2024-03-20T15:14:22Z) - Minecraft-ify: Minecraft Style Image Generation with Text-guided Image
Editing for In-Game Application [5.431779602239565]
立方体多様体を有する3次元仮想キャラクタに適したテクスチャマッピングのための顔焦点画像を生成することができる。
StyleGANとStyleCLIPを使ってテキストガイダンスで操作できる。
論文 参考訳(メタデータ) (2024-02-08T07:01:00Z) - GETAvatar: Generative Textured Meshes for Animatable Human Avatars [69.56959932421057]
高品質なジオメトリとテクスチャを備えたアニマタブルな人体アバターを製作することを目的とした,3D対応フルボディヒューマンジェネレーションの課題について検討した。
アニマタブルなヒトアバターの3Dレンダリングを直接生成する生成モデルであるGETAvatarを提案する。
論文 参考訳(メタデータ) (2023-10-04T10:30:24Z) - MineDojo: Building Open-Ended Embodied Agents with Internet-Scale
Knowledge [70.47759528596711]
私たちは、人気のMinecraftゲーム上に構築された新しいフレームワークであるMineDojoを紹介します。
本稿では,学習報酬関数として,大規模な事前学習ビデオ言語モデルを活用する新しいエージェント学習アルゴリズムを提案する。
我々のエージェントは、手動で設計した密なシェーピング報酬なしで、自由形式の言語で指定された様々なオープンエンドタスクを解くことができる。
論文 参考訳(メタデータ) (2022-06-17T15:53:05Z) - Local and Global GANs with Semantic-Aware Upsampling for Image
Generation [201.39323496042527]
ローカルコンテキストを用いて画像を生成することを検討する。
セマンティックマップをガイダンスとして用いたクラス固有の生成ネットワークを提案する。
最後に,セマンティック・アウェア・アップサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-02-28T19:24:25Z) - GANcraft: Unsupervised 3D Neural Rendering of Minecraft Worlds [29.533111314655788]
GANcraftは、大きな3Dブロック世界のフォトリアリズム画像を生成するための教師なしのニューラルレンダリングフレームワークです。
提案手法では,各ブロックにダート,草,水などの意味ラベルを割り当てたセマンティックブロックを入力とする。
ブロック世界における実画像のペア化がなければ,擬似地上真実と敵対的訓練に基づく訓練手法を考案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:38Z) - EvoCraft: A New Challenge for Open-Endedness [7.927206441149002]
EvoCraftは、オープンなアルゴリズムを研究するために設計されたMinecraftのフレームワークである。
EvoCraftは、複雑なアーティファクトを見つけるための自動検索方法(進化など)に挑戦的な新しい環境を提供する。
論文 参考訳(メタデータ) (2020-12-08T21:36:18Z) - Local Class-Specific and Global Image-Level Generative Adversarial
Networks for Semantic-Guided Scene Generation [135.4660201856059]
局所的な文脈でシーン生成を学習し、意味マップをガイダンスとして、局所的なクラス固有の生成ネットワークを設計する。
局所生成のための識別クラス固有の特徴表現をより学習するために,新しい分類モジュールを提案する。
2つのシーン画像生成タスクの実験は、提案したモデルのより優れた生成性能を示す。
論文 参考訳(メタデータ) (2019-12-27T16:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。