論文の概要: The Go Transformer: Natural Language Modeling for Game Play
- arxiv url: http://arxiv.org/abs/2007.03500v3
- Date: Mon, 7 Sep 2020 19:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 18:38:35.774639
- Title: The Go Transformer: Natural Language Modeling for Game Play
- Title(参考訳): Go Transformer:ゲームプレイのための自然言語モデリング
- Authors: Matthew Ciolino, David Noever, Josh Kalin
- Abstract要約: この研究は、Goの古代のゲームにおいて、もっともらしい戦略的な動きを生成するために自然言語モデリングを適用した。
我々は、GPT-2(Generative Pretrained Transformer)をトレーニングし、スマートゲームフォーマットでアーカイブされたGoチャンピオンのスタイルを模倣する。
トレーニングされたモデルは、Goの有効だが以前は見えなかった戦略をさらに生成します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work applies natural language modeling to generate plausible strategic
moves in the ancient game of Go. We train the Generative Pretrained Transformer
(GPT-2) to mimic the style of Go champions as archived in Smart Game Format
(SGF), which offers a text description of move sequences. The trained model
further generates valid but previously unseen strategies for Go. Because GPT-2
preserves punctuation and spacing, the raw output of the text generator
provides inputs to game visualization and creative patterns, such as the Sabaki
project's game engine using auto-replays. Results demonstrate that language
modeling can capture both the sequencing format of championship Go games and
their strategic formations. Compared to random game boards, the GPT-2
fine-tuning shows efficient opening move sequences favoring corner play over
less advantageous center and side play. Game generation as a language modeling
task offers novel approaches to more than 40 other board games where historical
text annotation provides training data (e.g., Amazons & Connect 4/6).
- Abstract(参考訳): この研究は自然言語モデリングを応用し、古代のgoのゲームにおいて妥当な戦略的な動きを生み出す。
我々は、GPT-2(Generative Pretrained Transformer)をトレーニングし、移動シーケンスのテキスト記述を提供するSmart Game Format(SGF)にアーカイブされたGoチャンピオンのスタイルを模倣する。
トレーニングされたモデルはさらに、goの有効だが未認識の戦略を生成する。
gpt-2は句読点と間隔を保つため、テキストジェネレータの生出力は自動再生を用いたサバキプロジェクトのゲームエンジンのようなゲーム可視化やクリエイティブパターンへの入力を提供する。
その結果、言語モデリングはチャンピオンシップgoゲームのシークエンシング形式と、その戦略的構成の両方を捉えることができる。
ランダムなゲームボードと比較して、GPT-2ファインチューニングは、より有利なセンターとサイドプレイよりもコーナープレイを好む効率的なオープニング動作シーケンスを示す。
言語モデリングタスクとしてのゲーム生成は、過去のテキストアノテーションがトレーニングデータ(例えばAmazons & Connect 4/6)を提供する40以上のボードゲームに新しいアプローチを提供する。
関連論文リスト
- Understanding Players as if They Are Talking to the Game in a Customized Language: A Pilot Study [3.4333699338998693]
本研究は,ゲームイベントシーケンスのモデル化における言語モデル(LM)の適用について検討する。
生イベントデータをテキストシーケンスに変換し、このデータ上でLongformerモデルを事前学習する。
これらの結果から,ゲームデザインやパーソナライズにおける自己監督型LMの可能性を示す。
論文 参考訳(メタデータ) (2024-10-24T09:59:10Z) - Instruction-Driven Game Engine: A Poker Case Study [53.689520884467065]
IDGEプロジェクトは、大規模言語モデルで自由形式のゲーム記述を追従し、ゲームプレイプロセスを生成することにより、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオへの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
我々の最初の進歩はポーカーのIDGEの開発であり、これは幅広いポーカーの変種をサポートするだけでなく、自然言語入力を通じて高度に個別化された新しいポーカーゲームを可能にする。
論文 参考訳(メタデータ) (2024-10-17T11:16:27Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Infusing Commonsense World Models with Graph Knowledge [89.27044249858332]
オープンワールドテキストアドベンチャーゲームにおける物語生成の設定について検討する。
基礎となるゲーム状態のグラフ表現は、接地グラフ表現と自然言語記述とアクションの両方を消費し出力するモデルを訓練するために使用することができる。
論文 参考訳(メタデータ) (2023-01-13T19:58:27Z) - Word Play for Playing Othello (Reverses) [0.0]
研究は、より大きな(GPT-3)言語モデルと小さい(GPT-2)言語モデルの両方を適用して、Othello(またはReverses)のゲームのための複雑な戦略を探索する。
言語モデルはチャンピオンシップレベルの戦略を自動的にキャプチャまたはエミュレートする。
微調整されたGPT-2モデルは13-71%の完成率からオセロゲームを生成し、より大きなGPT-3モデルは41%の完成率に達する。
論文 参考訳(メタデータ) (2022-07-18T17:13:32Z) - Learning Chess Blindfolded: Evaluating Language Models on State Tracking [69.3794549747725]
私たちはチェスのゲームのための言語モデリングのタスクを検討します。
自然言語とは異なり、チェス表記法は単純で制約のある決定論的領域を記述する。
トランスフォーマー言語モデルでは,移動シーケンスのみを訓練することで,ピースの追跡や法的動作の予測を高精度に行うことができる。
論文 参考訳(メタデータ) (2021-02-26T01:16:23Z) - Keep CALM and Explore: Language Models for Action Generation in
Text-based Games [27.00685301984832]
本研究では,各ゲーム状態におけるアクション候補のコンパクトなセットを生成するために,文脈行動言語モデル(CALM)を提案する。
我々はCALMと強化学習エージェントを組み合わせることで、生成したアクション候補を再ランクし、ゲーム内報酬を最大化する。
論文 参考訳(メタデータ) (2020-10-06T17:36:29Z) - The Chess Transformer: Mastering Play using Generative Language Models [0.0]
この研究は、自然言語トランスフォーマーがより汎用的な戦略的モデリングをサポートできることを実証している。
自然言語スキルの学習に加えて、抽象トランスフォーマーアーキテクチャはチェスボード上で意味のある動きを生成することができる。
我々は、このトランスフォーマーの約束、特に他の戦略ゲームに基づいて、今後の作業が構築されることを期待している。
論文 参考訳(メタデータ) (2020-08-02T18:04:36Z) - Learning Dynamic Belief Graphs to Generalize on Text-Based Games [55.59741414135887]
テキストベースのゲームをプレイするには、自然言語処理とシーケンシャルな意思決定のスキルが必要である。
本研究では,原文からエンドツーエンドに学習したグラフ構造化表現を用いて,エージェントがテキストベースのゲームでどのように計画・一般化できるかを検討する。
論文 参考訳(メタデータ) (2020-02-21T04:38:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。