論文の概要: Complete Chess Games Enable LLM Become A Chess Master
- arxiv url: http://arxiv.org/abs/2501.17186v1
- Date: Sun, 26 Jan 2025 09:43:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-30 15:55:04.526064
- Title: Complete Chess Games Enable LLM Become A Chess Master
- Title(参考訳): LLMがチェスのマスターになれる完全チェスゲーム
- Authors: Yinqi Zhang, Xintian Han, Haolong Li, Kedi Chen, Shaohui Lin,
- Abstract要約: 大規模言語モデル(LLM)は、テキスト生成、質問応答、言語翻訳、推論、その他多くのタスクにおいて顕著な能力を示している。
LLMは様々な分野で成功しているにもかかわらず、チェスのような抽象的なゲームをする能力は過小評価されている。
本稿では,チェスをフルに行うための大規模言語モデルChessLLMを提案する。
- 参考スコア(独自算出の注目度): 10.108949088950927
- License:
- Abstract: Large language models (LLM) have shown remarkable abilities in text generation, question answering, language translation, reasoning and many other tasks. It continues to advance rapidly and is becoming increasingly influential in various fields, from technology and business to education and entertainment. Despite LLM's success in multiple areas, its ability to play abstract games, such as chess, is underexplored. Chess-playing requires the language models to output legal and reasonable moves from textual inputs. Here, we propose the Large language model ChessLLM to play full chess games. We transform the game into a textual format with the best move represented in the Forsyth-Edwards Notation. We show that by simply supervised fine-tuning, our model has achieved a professional-level Elo rating of 1788 in matches against the standard Elo-rated Stockfish when permitted to sample 10 times. We further show that data quality is important. Long-round data supervision enjoys a 350 Elo rating improvement over short-round data.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキスト生成、質問応答、言語翻訳、推論、その他多くのタスクにおいて顕著な能力を示している。
急速に発展し続け、技術、ビジネス、教育、エンターテイメントなど様々な分野で影響力を増している。
LLMは様々な分野で成功しているにもかかわらず、チェスのような抽象的なゲームをする能力は過小評価されている。
チェス演奏では、言語モデルがテキスト入力から合法的で合理的な動きを出力する必要がある。
本稿では,チェスをフルに行うための大規模言語モデルChessLLMを提案する。
我々はこのゲームをForsyth-Edwards Notationで表現された最良の動きでテキスト形式に変換する。
簡単な微調整によって,本モデルでは,10回の採取が許された場合に,標準のエロレーティングストックフィッシュと対戦して,プロレベルのEloレーティングを1788年に達成した。
さらに、データ品質が重要であることも示します。
長期データ監視は、短期データよりも350Eloレーティングの改善を享受している。
関連論文リスト
- Explore the Reasoning Capability of LLMs in the Chess Testbed [45.12891789312405]
我々は,注釈付き戦略と戦術を統合することで,チェスにおける大規模言語モデルの推論能力を向上させることを提案する。
我々はLLaMA-3-8Bモデルを微調整し、より優れたチェスの動きを選択するタスクにおいて、最先端の商用言語モデルと比較する。
論文 参考訳(メタデータ) (2024-11-11T01:42:56Z) - Instruction-Driven Game Engine: A Poker Case Study [53.689520884467065]
IDGEプロジェクトは、大規模言語モデルで自由形式のゲーム記述を追従し、ゲームプレイプロセスを生成することにより、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオへの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
我々の最初の進歩はポーカーのIDGEの開発であり、これは幅広いポーカーの変種をサポートするだけでなく、自然言語入力を通じて高度に個別化された新しいポーカーゲームを可能にする。
論文 参考訳(メタデータ) (2024-10-17T11:16:27Z) - Learning the Latent Rules of a Game from Data: A Chess Story [0.0]
そこで本研究では,228Mおよび125Mパラメータ事前学習小言語モデル(SLM)を1000から1000,000の例で微調整できることを示す。
また、逐次的な言語モデル微調整エポックが結果改善に与える影響についても検討する。
論文 参考訳(メタデータ) (2024-10-03T12:19:49Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - Amortized Planning with Large-Scale Transformers: A Case Study on Chess [11.227110138932442]
本稿では,AIにおける画期的な計画問題であるチェスを用いて,計画課題の性能評価を行う。
ChessBenchは、Stockfishが提供する法的行動と価値アノテーション(1500億ポイント)を備えた1000万のチェスゲームの大規模なベンチマークである。
極めて優れた近似を教師付き学習により大規模変圧器に蒸留することは可能であるが, 完全蒸留は依然として到達範囲を超えている。
論文 参考訳(メタデータ) (2024-02-07T00:36:24Z) - FIREBALL: A Dataset of Dungeons and Dragons Actual-Play with Structured
Game State Information [75.201485544517]
本研究では,Discord上の実D&Dゲームプレイから25,000近いセッションを,真のゲーム状態情報とともに格納した大規模データセットFIREBALLを提案する。
我々は,FIREBALLがAvrae状態情報を用いて自然言語生成(NLG)を改善することを実証した。
論文 参考訳(メタデータ) (2023-05-02T15:36:10Z) - Promptable Game Models: Text-Guided Game Simulation via Masked Diffusion
Models [68.85478477006178]
ニューラルビデオゲームシミュレータのためのPGM(Promptable Game Model)を提案する。
ユーザーは高レベルのアクションシーケンスと低レベルのアクションシーケンスでゲームを実行することができる。
私たちのPGMは、エージェントの目標をプロンプトの形で指定することで、ディレクターのモードをアンロックします。
提案手法は,既存のニューラルビデオゲームシミュレータのレンダリング品質を著しく上回り,現在の最先端の能力を超えたアプリケーションをアンロックする。
論文 参考訳(メタデータ) (2023-03-23T17:43:17Z) - Learning Chess With Language Models and Transformers [0.0]
ボードゲームとその位置をテキストベースの表記で表現することで、NLPアプリケーションが可能となる。
BERTモデルは、まず単純なNimゲームに、数ショットの学習アーキテクチャのセットアップでノイズの存在下でのパフォーマンスを分析する。
モデルはチェスゲームのルールを実質的に学習し、カテゴリーAの格付けレベルでストックフィッシュと対戦して生き残ることができる。
論文 参考訳(メタデータ) (2022-09-24T01:22:59Z) - Learning Chess Blindfolded: Evaluating Language Models on State Tracking [69.3794549747725]
私たちはチェスのゲームのための言語モデリングのタスクを検討します。
自然言語とは異なり、チェス表記法は単純で制約のある決定論的領域を記述する。
トランスフォーマー言語モデルでは,移動シーケンスのみを訓練することで,ピースの追跡や法的動作の予測を高精度に行うことができる。
論文 参考訳(メタデータ) (2021-02-26T01:16:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。