論文の概要: Fast and Knowledge-Free Deep Learning for General Game Playing (Student
Abstract)
- arxiv url: http://arxiv.org/abs/2312.14121v1
- Date: Thu, 21 Dec 2023 18:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-22 13:42:25.572890
- Title: Fast and Knowledge-Free Deep Learning for General Game Playing (Student
Abstract)
- Title(参考訳): 汎用ゲームのための高速かつ知識のない深層学習(学生要約)
- Authors: Micha{\l} Maras, Micha{\l} K\k{e}pa, Jakub Kowalski, Marek Szyku{\l}a
- Abstract要約: 我々は,AlphaZeroモデルを汎用ゲームプレイング(GGP)に適用する手法を開発した。
データセット生成は、セルフプレイの代わりにMCTSを使用しており、バリューネットワークのみを使用し、アテンション層が畳み込み層を置き換える。
- 参考スコア(独自算出の注目度): 1.9750759888062657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a method of adapting the AlphaZero model to General Game Playing
(GGP) that focuses on faster model generation and requires less knowledge to be
extracted from the game rules. The dataset generation uses MCTS playing instead
of self-play; only the value network is used, and attention layers replace the
convolutional ones. This allows us to abandon any assumptions about the action
space and board topology. We implement the method within the Regular Boardgames
GGP system and show that we can build models outperforming the UCT baseline for
most games efficiently.
- Abstract(参考訳): 我々は,AlphaZeroモデルをより高速なモデル生成に重点を置く汎用ゲームプレイング(GGP)に適応させる手法を開発し,ゲームルールから抽出される知識を少なくする。
データセット生成は、自己再生の代わりにmcts再生を使用する; 値ネットワークのみを使用し、注意層は畳み込み層を置き換える。
これにより、アクション空間とボードトポロジに関する仮定を放棄することができます。
本手法を正規ボードゲームGGPシステム内に実装し,ほとんどのゲームにおいてUTTベースラインを効率よく上回るモデルを構築することができることを示す。
関連論文リスト
- Accelerate Multi-Agent Reinforcement Learning in Zero-Sum Games with
Subgame Curriculum Learning [65.36326734799587]
ゼロサムゲームのための新しいサブゲームカリキュラム学習フレームワークを提案する。
エージェントを以前に訪れた状態にリセットすることで、適応的な初期状態分布を採用する。
我々は,2乗距離をNE値に近似するサブゲーム選択指標を導出する。
論文 参考訳(メタデータ) (2023-10-07T13:09:37Z) - Scaling Laws for Imitation Learning in Single-Agent Games [29.941613597833133]
我々は,モデルとデータサイズを慎重にスケールアップすることで,シングルエージェントゲームにおける模倣学習環境に類似した改善がもたらされるかどうかを検討する。
われわれはまずAtariのさまざまなゲームについて実験を行い、その後NetHackの非常に挑戦的なゲームに焦点を当てた。
IL損失と平均戻り値は計算予算とスムーズに一致し,相関関係が強く,計算最適ILエージェントの訓練には電力法則が適用されることがわかった。
論文 参考訳(メタデータ) (2023-07-18T16:43:03Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Unsupervised Hebbian Learning on Point Sets in StarCraft II [12.095363582092904]
本稿では,StarCraft IIゲームユニットにおける点集合のグローバルな特徴を抽出するヘビアン学習手法を提案する。
我々のモデルはエンコーダ、LSTM、デコーダを含み、教師なし学習法でエンコーダを訓練する。
論文 参考訳(メタデータ) (2022-07-13T13:09:48Z) - Train on Small, Play the Large: Scaling Up Board Games with AlphaZero
and GNN [23.854093182195246]
ボードゲームをするのは、人間とAI研究者の両方にとって大きな課題だと考えられている。
この研究では、ボードをグラフとして見て、AlphaZeroフレームワーク内でグラフニューラルネットワークアーキテクチャを組み合わせる。
私たちのモデルは、ドメイン知識を使わずに、複数のボードサイズで異なる挑戦的なボードゲームをプレイするように、迅速にトレーニングすることができます。
論文 参考訳(メタデータ) (2021-07-18T08:36:00Z) - Combining Off and On-Policy Training in Model-Based Reinforcement
Learning [77.34726150561087]
MuZeroのシミュレートゲームから得られたデータを用いて、オフポリシターゲットの取得方法を提案する。
以上の結果から,これらの目標がトレーニングプロセスのスピードアップと,より高速な収束とより高い報酬につながることが示唆された。
論文 参考訳(メタデータ) (2021-02-24T10:47:26Z) - Complex Momentum for Learning in Games [42.081050296353574]
我々は、微分可能なゲームにおいて学習する運動量を伴う勾配降下を複素数値運動量を持つように一般化する。
我々は、複雑な値の運動量によってゲーム内の収束性が改善できることを実証する。
我々はまた、CIFAR-10のより良いスコアにBigGANを訓練するために使用する複素値アダム変種への実用的な一般化を示す。
論文 参考訳(メタデータ) (2021-02-16T19:55:27Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z) - Deep Policy Networks for NPC Behaviors that Adapt to Changing Design
Parameters in Roguelike Games [137.86426963572214]
例えばRoguelikesのようなターンベースの戦略ゲームは、Deep Reinforcement Learning(DRL)にユニークな課題を提示する。
複雑なカテゴリ状態空間をより適切に処理し、設計決定によって強制的に再訓練する必要性を緩和する2つのネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-07T08:47:25Z) - Efficient Reasoning in Regular Boardgames [2.909363382704072]
本稿では,通常のボードゲーム(RBG)言語における推論の技術的側面について述べる。
RBGは知識推論、分析、生成、学習、ゲームのための一般化されたアルゴリズムの開発を支援する研究ツールとして機能する。
論文 参考訳(メタデータ) (2020-06-15T11:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。