論文の概要: Learning Controllable 3D Level Generators
- arxiv url: http://arxiv.org/abs/2206.13623v1
- Date: Mon, 27 Jun 2022 20:43:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 19:32:13.222074
- Title: Learning Controllable 3D Level Generators
- Title(参考訳): 学習制御可能な3次元レベル発電機
- Authors: Zehua Jiang, Sam Earle, Michael C. Green, Julian Togelius
- Abstract要約: 3DドメインMinecraftのためのPCGRLタスクをいくつか紹介する(Mojang Studios, 2009)。
これらのタスクは、ジャンプ、多次元運動、重力といった3D環境でよく見られる余裕を使って、RLベースのジェネレータに挑戦する。
エージェントにこれらのタスクを最適化させ、PCGRLにおける以前の研究の能力を探求する。
- 参考スコア(独自算出の注目度): 3.95471659767555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Procedural Content Generation via Reinforcement Learning (PCGRL) foregoes the
need for large human-authored data-sets and allows agents to train explicitly
on functional constraints, using computable, user-defined measures of quality
instead of target output. We explore the application of PCGRL to 3D domains, in
which content-generation tasks naturally have greater complexity and potential
pertinence to real-world applications. Here, we introduce several PCGRL tasks
for the 3D domain, Minecraft (Mojang Studios, 2009). These tasks will challenge
RL-based generators using affordances often found in 3D environments, such as
jumping, multiple dimensional movement, and gravity. We train an agent to
optimize each of these tasks to explore the capabilities of previous research
in PCGRL. This agent is able to generate relatively complex and diverse levels,
and generalize to random initial states and control targets. Controllability
tests in the presented tasks demonstrate their utility to analyze success and
failure for 3D generators.
- Abstract(参考訳): 強化学習(pcgrl)による手続き的コンテンツ生成は、大規模な人間によるデータセットの必要性を予見し、エージェントがターゲットの出力ではなく、計算可能でユーザが定義した品質尺度を使用して、機能的な制約を明示的にトレーニングできるようにする。
コンテンツ生成タスクが自然に現実世界のアプリケーションと密接な関係を持つ3dドメインへのpcgrlの適用について検討する。
本稿では3DドメインであるMinecraft(Mojang Studios, 2009)のPCGRLタスクについて紹介する。
これらのタスクは、ジャンプ、多次元運動、重力といった3D環境でよく見られる余裕を使って、RLベースのジェネレータに挑戦する。
エージェントにこれらのタスクを最適化させ、PCGRLにおける以前の研究の能力を探求する。
このエージェントは比較的複雑で多様なレベルを生成し、ランダムな初期状態と制御ターゲットに一般化することができる。
提案したタスクにおける制御性テストは、3Dジェネレータの成功と失敗を分析するために有用であることを示す。
関連論文リスト
- Grammarization-Based Grasping with Deep Multi-Autoencoder Latent Space Exploration by Reinforcement Learning Agent [0.0]
本稿では,高次元の目標とグリップの特徴を圧縮するアイデアに基づく,ロボットグルーピングのための新しいフレームワークを提案する。
提案手法は,対象とグリップに専用の3つのオートエンコーダと,その潜在表現を融合させる第3のオートエンコーダを用いて,把握を簡略化する。
論文 参考訳(メタデータ) (2024-11-13T12:26:08Z) - Spatial Reasoning and Planning for Deep Embodied Agents [2.7195102129095003]
この論文は空間的推論と計画タスクのためのデータ駆動手法の開発を探求する。
学習効率、解釈可能性、新しいシナリオ間の伝達可能性の向上に重点を置いている。
論文 参考訳(メタデータ) (2024-09-28T23:05:56Z) - PCGRL+: Scaling, Control and Generalization in Reinforcement Learning Level Generators [2.334978724544296]
制御可能なデザイナーエージェントを訓練する手段として,PCGRL (Procedural Content Generation) が導入された。
PCGRLはゲームデザイナーにユニークな余裕を提供するが、RLエージェントを訓練する計算集約的なプロセスによって制約される。
我々はJaxにいくつかのPCGRL環境を実装し、GPU上で学習とシミュレーションのあらゆる側面が並列に行われるようにした。
論文 参考訳(メタデータ) (2024-08-22T16:30:24Z) - CityX: Controllable Procedural Content Generation for Unbounded 3D Cities [50.10101235281943]
現在の生成法は多様性、可制御性または忠実度に乏しい。
本研究では,高忠実度生成のための手続き的コンテンツ生成(PCG)技術を利用する。
我々は,OSM,セマンティックマップ,衛星画像などのマルチモーダル命令を実行可能なプログラムに変換するマルチエージェントフレームワークを開発した。
提案手法はCityXと呼ばれ,多種多様で制御可能でリアルな3D都市景観の創出において,その優位性を実証するものである。
論文 参考訳(メタデータ) (2024-07-24T18:05:13Z) - PerLDiff: Controllable Street View Synthesis Using Perspective-Layout Diffusion Models [55.080748327139176]
本稿では、3次元幾何学的情報を完全に活用した効果的なストリートビュー画像生成手法であるPerLDiffを紹介する。
この結果から,我々のPerLDiffはNuScenesおよびKITTIデータセットの生成精度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-07-08T16:46:47Z) - SERL: A Software Suite for Sample-Efficient Robotic Reinforcement
Learning [85.21378553454672]
筆者らは,報酬の計算と環境のリセットを行う手法とともに,効率的なオフ・ポリティクス・ディープ・RL法を含むライブラリを開発した。
我々は,PCBボードアセンブリ,ケーブルルーティング,オブジェクトの移動に関するポリシを,非常に効率的な学習を実現することができることを発見した。
これらの政策は完全な成功率またはほぼ完全な成功率、摂動下でさえ極端な堅牢性を実現し、突発的な堅牢性回復と修正行動を示す。
論文 参考訳(メタデータ) (2024-01-29T10:01:10Z) - Self-supervised Learning for Enhancing Geometrical Modeling in 3D-Aware
Generative Adversarial Network [42.16520614686877]
3D-GANは、メッシュの不完全性や穴などの3D幾何学的モデリングにおいて、アーティファクトを示す。
これらの欠点は、主にアノテーション付き3Dデータの可用性が制限されているためである。
本稿では,任意の3D-GANの補助的損失を補うセルフ・スーパーバイザード・ラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-12-19T04:55:33Z) - Controlling the Latent Space of GANs through Reinforcement Learning: A
Case Study on Task-based Image-to-Image Translation [5.881800919492065]
GAN(Generative Adversarial Networks)は、トレーニングデータセットに基づいたリアルなアウトプットを生成する、恐ろしいAIツールとして登場した。
我々は、強化学習(RL)エージェントと潜時空間GAN(l-GAN)を統合することでこの問題に対処する新しい手法を提案する。
我々は,l-GANの潜伏空間をナビゲートする習熟度を確保するために,厳密に設計された報酬ポリシーを備えたアクタ批判的RLエージェントを開発した。
論文 参考訳(メタデータ) (2023-07-26T06:34:24Z) - On Transforming Reinforcement Learning by Transformer: The Development
Trajectory [97.79247023389445]
Transformerは元々自然言語処理用に開発されたもので、コンピュータビジョンでも大きな成功を収めている。
既存の開発をアーキテクチャ拡張と軌道最適化の2つのカテゴリに分類する。
ロボット操作,テキストベースのゲーム,ナビゲーション,自律運転におけるTRLの主な応用について検討する。
論文 参考訳(メタデータ) (2022-12-29T03:15:59Z) - Multitask Adaptation by Retrospective Exploration with Learned World
Models [77.34726150561087]
本稿では,タスク非依存ストレージから取得したMBRLエージェントのトレーニングサンプルを提供するRAMaというメタ学習型アドレッシングモデルを提案する。
このモデルは、期待されるエージェントのパフォーマンスを最大化するために、ストレージから事前のタスクを解く有望な軌道を選択することで訓練される。
論文 参考訳(メタデータ) (2021-10-25T20:02:57Z) - ST3D: Self-training for Unsupervised Domain Adaptation on 3D
ObjectDetection [78.71826145162092]
点雲からの3次元物体検出における教師なし領域適応のための新しい領域適応型自己学習パイプラインST3Dを提案する。
当社のST3Dは、評価されたすべてのデータセットで最先端のパフォーマンスを達成し、KITTI 3Dオブジェクト検出ベンチマークで完全に監視された結果を超えます。
論文 参考訳(メタデータ) (2021-03-09T10:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。