論文の概要: LuckyMera: a Modular AI Framework for Building Hybrid NetHack Agents
- arxiv url: http://arxiv.org/abs/2307.08532v1
- Date: Mon, 17 Jul 2023 14:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 12:45:08.087876
- Title: LuckyMera: a Modular AI Framework for Building Hybrid NetHack Agents
- Title(参考訳): LuckyMera: ハイブリッドなNetHackエージェントを構築するためのモジュール型AIフレームワーク
- Authors: Luigi Quarantiello, Simone Marzeddu, Antonio Guzzi, Vincenzo Lomonaco
- Abstract要約: Rogueのようなビデオゲームは、環境の複雑さと計算コストの点で良いトレードオフを提供する。
我々は、NetHackを中心に構築された柔軟性、モジュール化、一般化、AIフレームワークであるLuckyMeraを紹介します。
LuckyMeraには、既製のシンボルモジュールとニューラルモジュール(“スキル”と呼ばれる)のセットが付属している。
- 参考スコア(独自算出の注目度): 7.23273667916516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few decades we have witnessed a significant development in
Artificial Intelligence (AI) thanks to the availability of a variety of
testbeds, mostly based on simulated environments and video games. Among those,
roguelike games offer a very good trade-off in terms of complexity of the
environment and computational costs, which makes them perfectly suited to test
AI agents generalization capabilities. In this work, we present LuckyMera, a
flexible, modular, extensible and configurable AI framework built around
NetHack, a popular terminal-based, single-player roguelike video game. This
library is aimed at simplifying and speeding up the development of AI agents
capable of successfully playing the game and offering a high-level interface
for designing game strategies. LuckyMera comes with a set of off-the-shelf
symbolic and neural modules (called "skills"): these modules can be either
hard-coded behaviors, or neural Reinforcement Learning approaches, with the
possibility of creating compositional hybrid solutions. Additionally, LuckyMera
comes with a set of utility features to save its experiences in the form of
trajectories for further analysis and to use them as datasets to train neural
modules, with a direct interface to the NetHack Learning Environment and
MiniHack. Through an empirical evaluation we validate our skills implementation
and propose a strong baseline agent that can reach state-of-the-art
performances in the complete NetHack game. LuckyMera is open-source and
available at https://github.com/Pervasive-AI-Lab/LuckyMera.
- Abstract(参考訳): 過去数十年間、私たちはさまざまなテストベッドが利用可能になり、主にシミュレーション環境とビデオゲームをベースにした人工知能(ai)の発展を目の当たりにしてきた。
中でもローグライクなゲームは、環境の複雑さと計算コストの点で非常に優れたトレードオフを提供しており、AIエージェントの一般化能力をテストするのに完全に適している。
本稿では,NetHackを中心に構築された,フレキシブルでモジュール化された,拡張可能な,構成可能なAIフレームワークであるLuckyMeraを紹介する。
このライブラリは、ゲームをうまくプレイできるAIエージェントの開発を簡素化し、高速化することを目的としており、ゲーム戦略を設計するためのハイレベルなインターフェースを提供する。
luckymeraには、市販のシンボリックおよびニューラルモジュール("スキル"と呼ばれる)が付属している。 これらのモジュールは、ハードコードされた振る舞いか、ニューラルネットワーク強化学習アプローチのいずれかになり、合成ハイブリッドソリューションを作成することができる。
さらにLuckyMeraには、さらなる分析のためのトラジェクトリという形でエクスペリエンスを保存し、NetHack Learning EnvironmentとMiniHackへの直接的なインターフェースを備えた、ニューラルモジュールのトレーニングにデータセットとして使用するためのユーティリティ機能が付属している。
実験的な評価により,我々は,NetHackゲームにおける最先端のパフォーマンスに到達できる強力なベースラインエージェントを提案する。
LuckyMeraはオープンソースでhttps://github.com/Pervasive-AI-Lab/LuckyMeraで公開されている。
関連論文リスト
- Autoverse: An Evolvable Game Language for Learning Robust Embodied Agents [2.624282086797512]
シングルプレイヤ2Dグリッドベースのゲームのための,進化可能なドメイン固有言語であるAutoverseを紹介する。
オープンエンデッドラーニング(OEL)アルゴリズムのスケーラブルなトレーニンググラウンドとしての利用を実証する。
論文 参考訳(メタデータ) (2024-07-05T02:18:02Z) - NetHack is Hard to Hack [37.24009814390211]
NeurIPS 2021 NetHack Challengeでは、シンボリックエージェントは中央値のゲームスコアにおいて、ニューラルネットワークのアプローチを4倍以上に上回りました。
我々はNetHackのニューラルポリシー学習について広範な研究を行っている。
従来の完全なニューラルポリシーを127%のオフライン設定、25%のオンライン設定を中央値のゲームスコアで上回る最先端のニューラルエージェントを作成しました。
論文 参考訳(メタデータ) (2023-05-30T17:30:17Z) - MineDojo: Building Open-Ended Embodied Agents with Internet-Scale
Knowledge [70.47759528596711]
私たちは、人気のMinecraftゲーム上に構築された新しいフレームワークであるMineDojoを紹介します。
本稿では,学習報酬関数として,大規模な事前学習ビデオ言語モデルを活用する新しいエージェント学習アルゴリズムを提案する。
我々のエージェントは、手動で設計した密なシェーピング報酬なしで、自由形式の言語で指定された様々なオープンエンドタスクを解くことができる。
論文 参考訳(メタデータ) (2022-06-17T15:53:05Z) - Godot Reinforcement Learning Agents [10.413185820687021]
Godot RL Agentsインターフェースは、挑戦的な2Dおよび3D環境におけるエージェントの動作の設計、生成、学習を可能にする。
このフレームワークは、研究者やゲームデザイナが、離散的、連続的、混合的なアクション空間を持つ環境を作成できる汎用的なツールである。
論文 参考訳(メタデータ) (2021-12-07T11:24:34Z) - Out of the Box: Embodied Navigation in the Real World [45.97756658635314]
シミュレーションで得られた知識を現実世界に伝達する方法を示す。
モデルは1台のIntel RealSenseカメラを搭載したLoCoBotにデプロイします。
本実験では,得られたモデルを実世界に展開することで,満足のいく結果が得られることを示した。
論文 参考訳(メタデータ) (2021-05-12T18:00:14Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - The NetHack Learning Environment [79.06395964379107]
本稿では、強化学習研究のための手続き的に生成されたローグのような環境であるNetHack Learning Environment(NLE)を紹介する。
我々は,NetHackが,探索,計画,技術習得,言語条件付きRLといった問題に対する長期的な研究を促進するのに十分複雑であると主張している。
我々は,分散されたDeep RLベースラインとランダムネットワーク蒸留探索を用いて,ゲームの初期段階における実験的な成功を示す。
論文 参考訳(メタデータ) (2020-06-24T14:12:56Z) - Learning to Simulate Dynamic Environments with GameGAN [109.25308647431952]
本稿では,エージェントが環境と対話するのを見ることでシミュレーターを学習することを目的とする。
ゲームGANは,学習中にスクリーンプレイやキーボード操作を取り入れることで,所望のゲームを視覚的に模倣することを学習する生成モデルである。
論文 参考訳(メタデータ) (2020-05-25T14:10:17Z) - Neural MMO v1.3: A Massively Multiagent Game Environment for Training
and Evaluating Neural Networks [48.5733173329785]
本稿では,MMOにインスパイアされたマルチエージェントゲーム環境であるNeural MMOを紹介する。
分散インフラストラクチャとゲームIOという,AI研究のためのマルチエージェントシステムエンジニアリングにおける,より一般的な2つの課題について論じる。
論文 参考訳(メタデータ) (2020-01-31T18:50:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。