論文の概要: Grammar and Gameplay-aligned RL for Game Description Generation with LLMs
- arxiv url: http://arxiv.org/abs/2503.15783v1
- Date: Thu, 20 Mar 2025 01:47:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:35:55.439098
- Title: Grammar and Gameplay-aligned RL for Game Description Generation with LLMs
- Title(参考訳): LLMを用いたゲーム記述生成のための文法とゲームプレイ対応RL
- Authors: Tsunehiko Tanaka, Edgar Simo-Serra,
- Abstract要約: ゲーム記述生成(GDG)は、自然言語テキストからゲーム記述言語(GDL)で記述されたゲーム記述を生成するタスクである。
GDG(RLGDG)のためのLarge Language Models(LLM)の強化学習に基づく微調整を提案する。
学習方法は,文法報酬と概念報酬の両方を導入することにより,ゲームコンセプトに対する文法的正しさと忠実さを同時に向上させる。
- 参考スコア(独自算出の注目度): 12.329521804287259
- License:
- Abstract: Game Description Generation (GDG) is the task of generating a game description written in a Game Description Language (GDL) from natural language text. Previous studies have explored generation methods leveraging the contextual understanding capabilities of Large Language Models (LLMs); however, accurately reproducing the game features of the game descriptions remains a challenge. In this paper, we propose reinforcement learning-based fine-tuning of LLMs for GDG (RLGDG). Our training method simultaneously improves grammatical correctness and fidelity to game concepts by introducing both grammar rewards and concept rewards. Furthermore, we adopt a two-stage training strategy where Reinforcement Learning (RL) is applied following Supervised Fine-Tuning (SFT). Experimental results demonstrate that our proposed method significantly outperforms baseline methods using SFT alone.
- Abstract(参考訳): ゲーム記述生成(GDG)は、自然言語テキストからゲーム記述言語(GDL)で記述されたゲーム記述を生成するタスクである。
これまで,Large Language Models (LLMs) の文脈理解機能を活用した生成手法について検討されてきたが,ゲーム記述のゲーム特徴を正確に再現することは依然として課題である。
本稿では,GDG(RLGDG)のためのLLMの強化学習に基づく微調整を提案する。
学習方法は,文法報酬と概念報酬の両方を導入することにより,ゲームコンセプトに対する文法的正しさと忠実さを同時に向上させる。
さらに,強化学習(Reinforcement Learning, RL)を適用した2段階のトレーニング戦略をSFT(Supervised Fine-Tuning, Supervised Fine-Tuning)に適用した。
実験の結果,提案手法はSFTのみを用いたベースライン法よりも有意に優れていた。
関連論文リスト
- SocialGPT: Prompting LLMs for Social Relation Reasoning via Greedy Segment Optimization [70.11167263638562]
社会的関係推論は、友人、配偶者、同僚などの関係カテゴリを画像から識別することを目的としている。
まず、VFM(Vision Foundation Models)の知覚能力と、モジュラーフレームワーク内でのLLM(Large Language Models)の推論能力を組み合わせた、シンプルだが巧妙な名前のフレームワークを提示する。
論文 参考訳(メタデータ) (2024-10-28T18:10:26Z) - Grammar-based Game Description Generation using Large Language Models [12.329521804287259]
Game Description Language (GDL) は、様々なゲームを機械可読形式で表現するための標準化された方法を提供する。
本稿では,Large Language Models(LLM)を利用して,自然言語から文法的に正確なゲーム記述を生成する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-24T16:36:02Z) - Enhancing Commentary Strategies for Imperfect Information Card Games: A Study of Large Language Models in Guandan Commentary [5.1244906826828736]
強化学習(RL)と大規模言語モデル(LLM)を組み合わせた新しい注釈手法を提案する。
本システムでは,RLを利用して複雑なカード再生シナリオを生成し,LLMを用いて対応する注釈文を生成する。
オープンソース LLM に適用した場合,提案する注釈フレームワークによって達成される性能の大幅な向上を示す。
論文 参考訳(メタデータ) (2024-06-23T11:58:26Z) - Unsupervised Information Refinement Training of Large Language Models for Retrieval-Augmented Generation [128.01050030936028]
InFO-RAG という情報改質訓練手法を提案する。
InFO-RAGは低コストで、様々なタスクにまたがっている。
LLaMA2の性能を平均9.39%向上させる。
論文 参考訳(メタデータ) (2024-02-28T08:24:38Z) - GTBench: Uncovering the Strategic Reasoning Limitations of LLMs via Game-Theoretic Evaluations [87.99872683336395]
大規模言語モデル(LLM)は、重要な現実世界のアプリケーションに統合される。
本稿では,LLMの競合環境における推論能力について検討する。
まず,広く認識されている10のタスクを構成する言語駆動型環境であるGTBenchを提案する。
論文 参考訳(メタデータ) (2024-02-19T18:23:36Z) - Large Language Models as Agents in Two-Player Games [12.303405412105187]
本稿では,大規模言語モデル(LLM)の学習手法と,2人プレイヤゲームにおけるエージェント開発戦略の並列性について述べる。
本稿では,言語ゲームにおけるエージェント学習の観点から,LLM学習プロセスの再概念化を提案する。
論文 参考訳(メタデータ) (2024-02-12T21:44:32Z) - Language Model-In-The-Loop: Data Optimal Approach to Learn-To-Recommend
Actions in Text Games [16.281640651021434]
大きな言語モデル(LLM)は、言語理解ベンチマークにおいて優れたパフォーマンスを示している。
LLMは、テキストゲームのパフォーマンスを改善するためのアクション候補レコメンデーションに、LDM -- GPT-2 -- の言語的先行性を活用する。
CalMは、注釈付き人間のゲームプレイでGPT-2を適応させ、テキストベースのゲームの学習中にLLMを固定し続ける。
論文 参考訳(メタデータ) (2023-11-13T19:12:49Z) - Leveraging Word Guessing Games to Assess the Intelligence of Large
Language Models [105.39236338147715]
この論文は人気のある言語ゲーム『Who is Spy』にインスパイアされている。
本研究は,LEMの表現と変形能力を評価するためのDEEPを開発する。
次に、インタラクティブなマルチエージェントフレームワークであるSpyGameを紹介します。
論文 参考訳(メタデータ) (2023-10-31T14:37:42Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - Deep Reinforcement Learning with Stacked Hierarchical Attention for
Text-based Games [64.11746320061965]
自然言語の文脈におけるインタラクティブなシミュレーションであるテキストベースゲームの強化学習について検討する。
エージェントの動作が解釈可能な推論手順によって生成され、支援されるように、意思決定のための知識グラフを用いた明示的な推論を行うことを目指している。
提案手法を多数の人為的ベンチマークゲームで広範囲に評価し,本手法が既存のテキストベースエージェントよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-10-22T12:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。