論文の概要: Fast and Knowledge-Free Deep Learning for General Game Playing (Student
Abstract)
- arxiv url: http://arxiv.org/abs/2312.14121v1
- Date: Thu, 21 Dec 2023 18:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 13:42:25.572890
- Title: Fast and Knowledge-Free Deep Learning for General Game Playing (Student
Abstract)
- Title(参考訳): 汎用ゲームのための高速かつ知識のない深層学習(学生要約)
- Authors: Micha{\l} Maras, Micha{\l} K\k{e}pa, Jakub Kowalski, Marek Szyku{\l}a
- Abstract要約: 我々は,AlphaZeroモデルを汎用ゲームプレイング(GGP)に適用する手法を開発した。
データセット生成は、セルフプレイの代わりにMCTSを使用しており、バリューネットワークのみを使用し、アテンション層が畳み込み層を置き換える。
- 参考スコア(独自算出の注目度): 1.9750759888062657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a method of adapting the AlphaZero model to General Game Playing
(GGP) that focuses on faster model generation and requires less knowledge to be
extracted from the game rules. The dataset generation uses MCTS playing instead
of self-play; only the value network is used, and attention layers replace the
convolutional ones. This allows us to abandon any assumptions about the action
space and board topology. We implement the method within the Regular Boardgames
GGP system and show that we can build models outperforming the UCT baseline for
most games efficiently.
- Abstract(参考訳): 我々は,AlphaZeroモデルをより高速なモデル生成に重点を置く汎用ゲームプレイング(GGP)に適応させる手法を開発し,ゲームルールから抽出される知識を少なくする。
データセット生成は、自己再生の代わりにmcts再生を使用する; 値ネットワークのみを使用し、注意層は畳み込み層を置き換える。
これにより、アクション空間とボードトポロジに関する仮定を放棄することができます。
本手法を正規ボードゲームGGPシステム内に実装し,ほとんどのゲームにおいてUTTベースラインを効率よく上回るモデルを構築することができることを示す。
関連論文リスト
- Autoverse: An Evolvable Game Language for Learning Robust Embodied Agents [2.624282086797512]
シングルプレイヤ2Dグリッドベースのゲームのための,進化可能なドメイン固有言語であるAutoverseを紹介する。
オープンエンデッドラーニング(OEL)アルゴリズムのスケーラブルなトレーニンググラウンドとしての利用を実証する。
論文 参考訳(メタデータ) (2024-07-05T02:18:02Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - Accelerate Multi-Agent Reinforcement Learning in Zero-Sum Games with
Subgame Curriculum Learning [65.36326734799587]
ゼロサムゲームのための新しいサブゲームカリキュラム学習フレームワークを提案する。
エージェントを以前に訪れた状態にリセットすることで、適応的な初期状態分布を採用する。
我々は,2乗距離をNE値に近似するサブゲーム選択指標を導出する。
論文 参考訳(メタデータ) (2023-10-07T13:09:37Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Unsupervised Hebbian Learning on Point Sets in StarCraft II [12.095363582092904]
本稿では,StarCraft IIゲームユニットにおける点集合のグローバルな特徴を抽出するヘビアン学習手法を提案する。
我々のモデルはエンコーダ、LSTM、デコーダを含み、教師なし学習法でエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-07-13T13:09:48Z) - Train on Small, Play the Large: Scaling Up Board Games with AlphaZero
and GNN [23.854093182195246]
ボードゲームをするのは、人間とAI研究者の両方にとって大きな課題だと考えられている。
この研究では、ボードをグラフとして見て、AlphaZeroフレームワーク内でグラフニューラルネットワークアーキテクチャを組み合わせる。
私たちのモデルは、ドメイン知識を使わずに、複数のボードサイズで異なる挑戦的なボードゲームをプレイするように、迅速にトレーニングすることができます。
論文 参考訳(メタデータ) (2021-07-18T08:36:00Z) - Combining Off and On-Policy Training in Model-Based Reinforcement
Learning [77.34726150561087]
MuZeroのシミュレートゲームから得られたデータを用いて、オフポリシターゲットの取得方法を提案する。
以上の結果から,これらの目標がトレーニングプロセスのスピードアップと,より高速な収束とより高い報酬につながることが示唆された。
論文 参考訳(メタデータ) (2021-02-24T10:47:26Z) - Efficient Reasoning in Regular Boardgames [2.909363382704072]
本稿では,通常のボードゲーム(RBG)言語における推論の技術的側面について述べる。
RBGは知識推論、分析、生成、学習、ゲームのための一般化されたアルゴリズムの開発を支援する研究ツールとして機能する。
論文 参考訳(メタデータ) (2020-06-15T11:42:08Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。