論文の概要: Grammar-based Game Description Generation using Large Language Models
- arxiv url: http://arxiv.org/abs/2407.17404v2
- Date: Wed, 22 Jan 2025 05:52:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-23 18:44:13.781611
- Title: Grammar-based Game Description Generation using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた文法に基づくゲーム記述生成
- Authors: Tsunehiko Tanaka, Edgar Simo-Serra,
- Abstract要約: Game Description Language (GDL) は、様々なゲームを機械可読形式で表現するための標準化された方法を提供する。
本稿では,Large Language Models(LLM)を利用して,自然言語から文法的に正確なゲーム記述を生成する新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 12.329521804287259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Game Description Language (GDL) provides a standardized way to express diverse games in a machine-readable format, enabling automated game simulation, and evaluation. While previous research has explored game description generation using search-based methods, generating GDL descriptions from natural language remains a challenging task. This paper presents a novel framework that leverages Large Language Models (LLMs) to generate grammatically accurate game descriptions from natural language. Our approach consists of two stages: first, we gradually generate a minimal grammar based on GDL specifications; second, we iteratively improve the game description through grammar-guided generation. Our framework employs a specialized parser that identifies valid subsequences and candidate symbols from LLM responses, enabling gradual refinement of the output to ensure grammatical correctness. Experimental results demonstrate that our iterative improvement approach significantly outperforms baseline methods that directly use LLM outputs. Our code is available at https://github.com/tsunehiko/ggdg
- Abstract(参考訳): Game Description Language (GDL) は、様々なゲームを機械可読形式で表現し、自動ゲームシミュレーションと評価を可能にする標準化された方法を提供する。
従来,検索手法を用いたゲーム記述生成について検討されてきたが,自然言語によるGDL記述の生成は依然として困難な課題である。
本稿では,Large Language Models (LLM) を利用して,自然言語から文法的に正確なゲーム記述を生成する新しいフレームワークを提案する。
まず、GDL仕様に基づいて最小限の文法を徐々に生成し、次に、文法誘導生成によるゲーム記述を反復的に改善する。
本フレームワークでは, LLM応答から有効なサブシーケンスと候補シンボルを識別する特別なパーサを用いて, 文法的正確性を確保するために, 出力の段階的改善を可能にする。
実験結果から,LLM出力を直接使用するベースライン手法よりも,反復的改善アプローチの方が有意に優れていることが示された。
私たちのコードはhttps://github.com/tsunehiko/ggdgで利用可能です。
関連論文リスト
- Grammar and Gameplay-aligned RL for Game Description Generation with LLMs [12.329521804287259]
ゲーム記述生成(GDG)は、自然言語テキストからゲーム記述言語(GDL)で記述されたゲーム記述を生成するタスクである。
GDG(RLGDG)のためのLarge Language Models(LLM)の強化学習に基づく微調整を提案する。
学習方法は,文法報酬と概念報酬の両方を導入することにより,ゲームコンセプトに対する文法的正しさと忠実さを同時に向上させる。
論文 参考訳(メタデータ) (2025-03-20T01:47:33Z) - Grammar-Based Code Representation: Is It a Worthy Pursuit for LLMs? [29.690921649662744]
グラマーはプログラミング言語とソフトウェア工学の基盤となっている。
既存の研究では、小規模モデルにおける文法に基づくコード表現の有効性を実証している。
コード生成プロセスに文法規則を組み込んだ,数十億規模のGrammarCoderモデルを開発した。
論文 参考訳(メタデータ) (2025-03-07T15:23:13Z) - Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキスト上に既存のテキスト埋め込みモデルを微調整することで、優れた分類精度が得られることが判明した。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Understanding Players as if They Are Talking to the Game in a Customized Language: A Pilot Study [3.4333699338998693]
本研究は,ゲームイベントシーケンスのモデル化における言語モデル(LM)の適用について検討する。
生イベントデータをテキストシーケンスに変換し、このデータ上でLongformerモデルを事前学習する。
これらの結果から,ゲームデザインやパーソナライズにおける自己監督型LMの可能性を示す。
論文 参考訳(メタデータ) (2024-10-24T09:59:10Z) - Using Grammar Masking to Ensure Syntactic Validity in LLM-based Modeling Tasks [0.996023506058745]
文法マスキング(Grammar masking)は、与えられた文脈自由文法に対して構文的に正しいモデルを生成するための大きな言語モデルを導くために用いられる。
文法マスキングは,複数の言語モデルのモデリング能力を劇的に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-07-08T17:19:59Z) - ChatPCG: Large Language Model-Driven Reward Design for Procedural Content Generation [3.333383360927007]
本稿では,大規模言語モデル(LLM)による報酬設計フレームワークChatPCGを提案する。
ゲーム専門知識と組み合わさった人間レベルの洞察を活用して、特定のゲーム機能に合わせた報酬を自動的に生成する。
ChatPCGは深層強化学習と統合されており、マルチプレイヤーゲームコンテンツ生成タスクの可能性を示している。
論文 参考訳(メタデータ) (2024-06-07T08:18:42Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - On Automating Video Game Regression Testing by Planning and Learning [3.746904317622708]
本稿では,あるゲーム面の回帰テストを自動化する手法とワークフローを提案する。
基本的な考え方は、詳細なゲームログとインクリメンタルアクションモデル学習技術を使用して、フォーマルモデルを維持することである。
本稿では,ワークフローにおけるモデリング専門家の必要性を最小限に抑えるか,あるいは取り除くための第一歩を示す。
論文 参考訳(メタデータ) (2024-02-16T14:28:25Z) - Native Language Identification with Large Language Models [60.80452362519818]
我々はGPTモデルがNLI分類に熟練していることを示し、GPT-4は0ショット設定でベンチマーク11テストセットで91.7%の新たなパフォーマンス記録を樹立した。
また、従来の完全教師付き設定とは異なり、LLMは既知のクラスに制限されずにNLIを実行できることを示す。
論文 参考訳(メタデータ) (2023-12-13T00:52:15Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - The Consensus Game: Language Model Generation via Equilibrium Search [73.51411916625032]
言語モデル復号のための学習不要なゲーム理論を新たに導入する。
本手法では,正規化不完全情報シーケンシャルシグナリングゲームとして,言語モデルの復号化を行う。
EQUILIBRium-RANKINGをLLaMA-7Bに適用すると、より大型のLLaMA-65BとPaLM-540Bより優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-13T14:27:21Z) - Grammar Prompting for Domain-Specific Language Generation with Large
Language Models [40.831045850285776]
大規模言語モデル(LLM)は、コンテキスト内サンプルのごく一部から、幅広い自然言語タスクを実行することを学べる。
本稿では,LLMが外部知識やドメイン固有の制約を利用できるための簡単な手法であるEmphgrammar promptingを提案する。
論文 参考訳(メタデータ) (2023-05-30T17:26:01Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - LeTI: Learning to Generate from Textual Interactions [60.425769582343506]
本稿では,テキストインタラクション(LETI)から学習するLMの可能性を,バイナリラベルによる正当性をチェックするだけでなく,テキストフィードバックを通じて出力中のエラーをピンポイントし,説明する。
私たちの焦点はコード生成タスクであり、そこではモデルが自然言語命令に基づいてコードを生成する。
LETIは、目的のLMを用いて、自然言語命令、LM生成プログラム、テキストフィードバックの結合に基づいて、モデルを反復的に微調整する。
論文 参考訳(メタデータ) (2023-05-17T15:53:31Z) - Infusing Commonsense World Models with Graph Knowledge [89.27044249858332]
オープンワールドテキストアドベンチャーゲームにおける物語生成の設定について検討する。
基礎となるゲーム状態のグラフ表現は、接地グラフ表現と自然言語記述とアクションの両方を消費し出力するモデルを訓練するために使用することができる。
論文 参考訳(メタデータ) (2023-01-13T19:58:27Z) - GanLM: Encoder-Decoder Pre-training with an Auxiliary Discriminator [114.8954615026781]
本稿では,補助判別器を導入して,エンコーダ・デコーダ事前学習のためのGANスタイルのモデルを提案する。
GanLMは2つのトレーニング済みの目標 – トークン検出の置き換えとトークン記述の置き換え – でトレーニングされている。
言語生成ベンチマークの実験では、強力な言語理解能力を持つ GanLM が、様々な強力な事前学習言語モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-20T12:51:11Z) - Tile Embedding: A General Representation for Procedural Level Generation
via Machine Learning [1.590611306750623]
タイルをベースとした2Dゲームのための,統一的で手頃な表現であるタイル埋め込みを提案する。
我々は、既存の人間の注釈付きゲームからタイルの視覚的および意味的な情報に基づいて訓練されたオートエンコーダを採用する。
我々は、この表現を、目に見えないタイルの余裕を予測し、注釈付きゲームや注釈なしゲームのためのPLGML表現として機能する能力に基づいて評価する。
論文 参考訳(メタデータ) (2021-10-07T04:48:48Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - Deep Reinforcement Learning with Stacked Hierarchical Attention for
Text-based Games [64.11746320061965]
自然言語の文脈におけるインタラクティブなシミュレーションであるテキストベースゲームの強化学習について検討する。
エージェントの動作が解釈可能な推論手順によって生成され、支援されるように、意思決定のための知識グラフを用いた明示的な推論を行うことを目指している。
提案手法を多数の人為的ベンチマークゲームで広範囲に評価し,本手法が既存のテキストベースエージェントよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-10-22T12:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。