論文の概要: Learning Chess With Language Models and Transformers
- arxiv url: http://arxiv.org/abs/2209.11902v1
- Date: Sat, 24 Sep 2022 01:22:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 14:01:53.615047
- Title: Learning Chess With Language Models and Transformers
- Title(参考訳): 言語モデルとトランスフォーマーによるチェスの学習
- Authors: Michael DeLeo, Erhan Guven
- Abstract要約: ボードゲームとその位置をテキストベースの表記で表現することで、NLPアプリケーションが可能となる。
BERTモデルは、まず単純なNimゲームに、数ショットの学習アーキテクチャのセットアップでノイズの存在下でのパフォーマンスを分析する。
モデルはチェスゲームのルールを実質的に学習し、カテゴリーAの格付けレベルでストックフィッシュと対戦して生き残ることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representing a board game and its positions by text-based notation enables
the possibility of NLP applications. Language models, can help gain insight
into a variety of interesting problems such as unsupervised learning rules of a
game, detecting player behavior patterns, player attribution, and ultimately
learning the game to beat state of the art. In this study, we applied BERT
models, first to the simple Nim game to analyze its performance in the presence
of noise in a setup of a few-shot learning architecture. We analyzed the model
performance via three virtual players, namely Nim Guru, Random player, and
Q-learner. In the second part, we applied the game learning language model to
the chess game, and a large set of grandmaster games with exhaustive
encyclopedia openings. Finally, we have shown that model practically learns the
rules of the chess game and can survive games against Stockfish at a category-A
rating level.
- Abstract(参考訳): ボードゲームとその位置をテキストベースの表記で表現することで、NLPアプリケーションが可能となる。
言語モデルは、ゲームの教師なし学習ルール、プレイヤーの行動パターンの検出、プレイヤーの帰属、最終的にゲームの状態を破るためにゲームを学ぶなど、さまざまな興味深い問題に対する洞察を得るのに役立つ。
本研究では,まず,単純なnimゲームにbertモデルを適用し,数発学習アーキテクチャのセットアップにおいて,ノイズの存在下でのパフォーマンスを解析した。
我々は,Nim Guru,Random Player,Q-learnerという3つの仮想プレイヤーを用いてモデル性能を解析した。
第2部では,ゲーム学習言語モデルをチェスゲームに適用し,百科事典を網羅した大量のグランドマスターゲームについて検討した。
最後に, モデルがチェスゲームのルールを実質的に学習し, カテゴリーAのレーティングレベルにおいてストックフィッシュと対戦して生き残ることを示す。
関連論文リスト
- Instruction-Driven Game Engine: A Poker Case Study [53.689520884467065]
IDGEプロジェクトは、大規模言語モデルで自由形式のゲーム記述を追従し、ゲームプレイプロセスを生成することにより、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオへの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
我々の最初の進歩はポーカーのIDGEの開発であり、これは幅広いポーカーの変種をサポートするだけでなく、自然言語入力を通じて高度に個別化された新しいポーカーゲームを可能にする。
論文 参考訳(メタデータ) (2024-10-17T11:16:27Z) - Learning the Latent Rules of a Game from Data: A Chess Story [0.0]
そこで本研究では,228Mおよび125Mパラメータ事前学習小言語モデル(SLM)を1000から1000,000の例で微調整できることを示す。
また、逐次的な言語モデル微調整エポックが結果改善に与える影響についても検討する。
論文 参考訳(メタデータ) (2024-10-03T12:19:49Z) - GAVEL: Generating Games Via Evolution and Language Models [40.896938709468465]
我々は,Ludiiゲーム記述言語における新規ゲームの生成について検討する。
我々は、コードとして表現されたゲームやメカニクスをインテリジェントに変更し、再結合するモデルを訓練する。
生成されたゲームのサンプルは、Ludiiポータルからオンラインでプレイすることができる。
論文 参考訳(メタデータ) (2024-07-12T16:08:44Z) - Show, Don't Tell: Evaluating Large Language Models Beyond Textual Understanding with ChildPlay [0.0]
私たちは戦略的思考と意思決定を評価するために、Tic-Tac-Toe、Connect Four、Battleshipといったゲームを使用しています。
標準ベンチマークに習熟しているにもかかわらず、GPT-3.5とGPT-4のプレイ能力と、事前トレーニングなしで完全に観察可能なゲームについて推論する能力は、ごくわずかである。
論文 参考訳(メタデータ) (2024-07-12T14:17:26Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - Emergent World Models and Latent Variable Estimation in Chess-Playing Language Models [0.0]
我々は,Othelloゲーム上でGPTモデルをトレーニングし,ボード状態の内部表現を学習した。
この作業をチェスのより複雑な領域に拡張し、実際のゲームでトレーニングし、モデルの内部表現を調査します。
Li et al. の以前の合成データセットアプローチとは異なり、我々の分析では、このモデルがプレイヤースキルのような潜伏変数を推定し、次のキャラクタをより正確に予測する方法も学んでいる。
論文 参考訳(メタデータ) (2024-03-21T18:53:23Z) - Visually Grounded Language Learning: a review of language games,
datasets, tasks, and models [60.2604624857992]
多くのVision+Language (V+L)タスクは、視覚的モダリティでシンボルをグラウンドできるモデルを作成することを目的として定義されている。
本稿では,V+L分野において提案されるいくつかの課題とモデルについて,系統的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-12-05T02:17:29Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Learning Chess Blindfolded: Evaluating Language Models on State Tracking [69.3794549747725]
私たちはチェスのゲームのための言語モデリングのタスクを検討します。
自然言語とは異なり、チェス表記法は単純で制約のある決定論的領域を記述する。
トランスフォーマー言語モデルでは,移動シーケンスのみを訓練することで,ピースの追跡や法的動作の予測を高精度に行うことができる。
論文 参考訳(メタデータ) (2021-02-26T01:16:23Z) - Keep CALM and Explore: Language Models for Action Generation in
Text-based Games [27.00685301984832]
本研究では,各ゲーム状態におけるアクション候補のコンパクトなセットを生成するために,文脈行動言語モデル(CALM)を提案する。
我々はCALMと強化学習エージェントを組み合わせることで、生成したアクション候補を再ランクし、ゲーム内報酬を最大化する。
論文 参考訳(メタデータ) (2020-10-06T17:36:29Z) - Model-Based Reinforcement Learning for Atari [89.3039240303797]
エージェントがモデルフリーの手法よりも少ないインタラクションでAtariゲームを解くことができることを示す。
本実験は,エージェントと環境間の100kの相互作用の少ないデータ構造における,AtariゲームにおけるSimPLeの評価である。
論文 参考訳(メタデータ) (2019-03-01T15:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。