論文の概要: Grammar-based Game Description Generation using Large Language Models
- arxiv url: http://arxiv.org/abs/2407.17404v1
- Date: Wed, 24 Jul 2024 16:36:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-07-25 13:15:22.794540
- Title: Grammar-based Game Description Generation using Large Language Models
- Title(参考訳): 大規模言語モデルを用いた文法に基づくゲーム記述生成
- Authors: Tsunehiko Tanaka, Edgar Simo-Serra,
- Abstract要約: ゲームデザイン空間を効果的に構成するゲーム記述の文法を推論プロセスに導入する。
ゲーム記述の生成において,本手法が有効であることを示す。
- 参考スコア(独自算出の注目度): 12.329521804287259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To lower the barriers to game design development, automated game design, which generates game designs through computational processes, has been explored. In automated game design, machine learning-based techniques such as evolutionary algorithms have achieved success. Benefiting from the remarkable advancements in deep learning, applications in computer vision and natural language processing have progressed in level generation. However, due to the limited amount of data in game design, the application of deep learning has been insufficient for tasks such as game description generation. To pioneer a new approach for handling limited data in automated game design, we focus on the in-context learning of large language models (LLMs). LLMs can capture the features of a task from a few demonstration examples and apply the capabilities acquired during pre-training. We introduce the grammar of game descriptions, which effectively structures the game design space, into the LLMs' reasoning process. Grammar helps LLMs capture the characteristics of the complex task of game description generation. Furthermore, we propose a decoding method that iteratively improves the generated output by leveraging the grammar. Our experiments demonstrate that this approach performs well in generating game descriptions.
- Abstract(参考訳): ゲームデザイン開発における障壁を低くするために,ゲームデザインを計算処理で生成する自動ゲームデザインが検討されている。
自動ゲームデザインでは、進化的アルゴリズムのような機械学習ベースの技術が成功している。
ディープラーニングの顕著な進歩から、コンピュータビジョンや自然言語処理の応用は、レベル生成において進歩している。
しかし,ゲーム設計におけるデータ量が限られているため,ゲーム記述生成などのタスクにはディープラーニングの適用が不十分であった。
自動ゲーム設計における限られたデータを扱う新しいアプローチを開拓するために,大規模言語モデル(LLM)のコンテキスト内学習に着目した。
LLMは、いくつかのデモ例からタスクの特徴をキャプチャして、事前トレーニング中に取得した機能を適用することができる。
ゲームデザイン空間を効果的に構成するゲーム記述の文法をLLMの推論プロセスに導入する。
グラマーはLLMがゲーム記述生成の複雑なタスクの特徴を捉えるのに役立つ。
さらに,文法を利用して生成した出力を反復的に改善する復号法を提案する。
ゲーム記述の生成において,本手法が有効であることを示す。
関連論文リスト
- Grammar and Gameplay-aligned RL for Game Description Generation with LLMs [12.329521804287259]
ゲーム記述生成(GDG)は、自然言語テキストからゲーム記述言語(GDL)で記述されたゲーム記述を生成するタスクである。
GDG(RLGDG)のためのLarge Language Models(LLM)の強化学習に基づく微調整を提案する。
学習方法は,文法報酬と概念報酬の両方を導入することにより,ゲームコンセプトに対する文法的正しさと忠実さを同時に向上させる。
論文 参考訳(メタデータ) (2025-03-20T01:47:33Z) - Grammar-Based Code Representation: Is It a Worthy Pursuit for LLMs? [29.690921649662744]
グラマーはプログラミング言語とソフトウェア工学の基盤となっている。
既存の研究では、小規模モデルにおける文法に基づくコード表現の有効性を実証している。
コード生成プロセスに文法規則を組み込んだ,数十億規模のGrammarCoderモデルを開発した。
論文 参考訳(メタデータ) (2025-03-07T15:23:13Z) - Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキスト上に既存のテキスト埋め込みモデルを微調整することで、優れた分類精度が得られることが判明した。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Understanding Players as if They Are Talking to the Game in a Customized Language: A Pilot Study [3.4333699338998693]
本研究は,ゲームイベントシーケンスのモデル化における言語モデル(LM)の適用について検討する。
生イベントデータをテキストシーケンスに変換し、このデータ上でLongformerモデルを事前学習する。
これらの結果から,ゲームデザインやパーソナライズにおける自己監督型LMの可能性を示す。
論文 参考訳(メタデータ) (2024-10-24T09:59:10Z) - Using Grammar Masking to Ensure Syntactic Validity in LLM-based Modeling Tasks [0.996023506058745]
文法マスキング(Grammar masking)は、与えられた文脈自由文法に対して構文的に正しいモデルを生成するための大きな言語モデルを導くために用いられる。
文法マスキングは,複数の言語モデルのモデリング能力を劇的に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-07-08T17:19:59Z) - ChatPCG: Large Language Model-Driven Reward Design for Procedural Content Generation [3.333383360927007]
本稿では,大規模言語モデル(LLM)による報酬設計フレームワークChatPCGを提案する。
ゲーム専門知識と組み合わさった人間レベルの洞察を活用して、特定のゲーム機能に合わせた報酬を自動的に生成する。
ChatPCGは深層強化学習と統合されており、マルチプレイヤーゲームコンテンツ生成タスクの可能性を示している。
論文 参考訳(メタデータ) (2024-06-07T08:18:42Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - Instruction-Driven Game Engines on Large Language Models [59.280666591243154]
IDGEプロジェクトは、大規模な言語モデルが自由形式のゲームルールに従うことを可能にすることで、ゲーム開発を民主化することを目的としている。
我々は、複雑なシナリオに対するモデルの露出を徐々に増大させるカリキュラム方式でIDGEを訓練する。
私たちの最初の進歩は、汎用的なカードゲームであるPoker用のIDGEを開発することです。
論文 参考訳(メタデータ) (2024-03-30T08:02:16Z) - On Automating Video Game Regression Testing by Planning and Learning [3.746904317622708]
本稿では,あるゲーム面の回帰テストを自動化する手法とワークフローを提案する。
基本的な考え方は、詳細なゲームログとインクリメンタルアクションモデル学習技術を使用して、フォーマルモデルを維持することである。
本稿では,ワークフローにおけるモデリング専門家の必要性を最小限に抑えるか,あるいは取り除くための第一歩を示す。
論文 参考訳(メタデータ) (2024-02-16T14:28:25Z) - Native Language Identification with Large Language Models [60.80452362519818]
我々はGPTモデルがNLI分類に熟練していることを示し、GPT-4は0ショット設定でベンチマーク11テストセットで91.7%の新たなパフォーマンス記録を樹立した。
また、従来の完全教師付き設定とは異なり、LLMは既知のクラスに制限されずにNLIを実行できることを示す。
論文 参考訳(メタデータ) (2023-12-13T00:52:15Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - The Consensus Game: Language Model Generation via Equilibrium Search [73.51411916625032]
言語モデル復号のための学習不要なゲーム理論を新たに導入する。
本手法では,正規化不完全情報シーケンシャルシグナリングゲームとして,言語モデルの復号化を行う。
EQUILIBRium-RANKINGをLLaMA-7Bに適用すると、より大型のLLaMA-65BとPaLM-540Bより優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-13T14:27:21Z) - Grammar Prompting for Domain-Specific Language Generation with Large
Language Models [40.831045850285776]
大規模言語モデル(LLM)は、コンテキスト内サンプルのごく一部から、幅広い自然言語タスクを実行することを学べる。
本稿では,LLMが外部知識やドメイン固有の制約を利用できるための簡単な手法であるEmphgrammar promptingを提案する。
論文 参考訳(メタデータ) (2023-05-30T17:26:01Z) - SPRING: Studying the Paper and Reasoning to Play Games [102.5587155284795]
我々は,ゲーム本来の学術論文を読み取るための新しいアプローチ,SPRINGを提案し,大言語モデル(LLM)を通してゲームの説明とプレイの知識を利用する。
実験では,クラフトオープンワールド環境の設定下で,異なる形態のプロンプトによって引き起こされる文脈内「推論」の品質について検討した。
我々の実験は、LLMが一貫したチェーン・オブ・シークレットによって誘導されると、洗練された高レベル軌道の完成に大きな可能性があることを示唆している。
論文 参考訳(メタデータ) (2023-05-24T18:14:35Z) - LeTI: Learning to Generate from Textual Interactions [60.425769582343506]
本稿では,テキストインタラクション(LETI)から学習するLMの可能性を,バイナリラベルによる正当性をチェックするだけでなく,テキストフィードバックを通じて出力中のエラーをピンポイントし,説明する。
私たちの焦点はコード生成タスクであり、そこではモデルが自然言語命令に基づいてコードを生成する。
LETIは、目的のLMを用いて、自然言語命令、LM生成プログラム、テキストフィードバックの結合に基づいて、モデルを反復的に微調整する。
論文 参考訳(メタデータ) (2023-05-17T15:53:31Z) - Infusing Commonsense World Models with Graph Knowledge [89.27044249858332]
オープンワールドテキストアドベンチャーゲームにおける物語生成の設定について検討する。
基礎となるゲーム状態のグラフ表現は、接地グラフ表現と自然言語記述とアクションの両方を消費し出力するモデルを訓練するために使用することができる。
論文 参考訳(メタデータ) (2023-01-13T19:58:27Z) - GanLM: Encoder-Decoder Pre-training with an Auxiliary Discriminator [114.8954615026781]
本稿では,補助判別器を導入して,エンコーダ・デコーダ事前学習のためのGANスタイルのモデルを提案する。
GanLMは2つのトレーニング済みの目標 – トークン検出の置き換えとトークン記述の置き換え – でトレーニングされている。
言語生成ベンチマークの実験では、強力な言語理解能力を持つ GanLM が、様々な強力な事前学習言語モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-20T12:51:11Z) - Tile Embedding: A General Representation for Procedural Level Generation
via Machine Learning [1.590611306750623]
タイルをベースとした2Dゲームのための,統一的で手頃な表現であるタイル埋め込みを提案する。
我々は、既存の人間の注釈付きゲームからタイルの視覚的および意味的な情報に基づいて訓練されたオートエンコーダを採用する。
我々は、この表現を、目に見えないタイルの余裕を予測し、注釈付きゲームや注釈なしゲームのためのPLGML表現として機能する能力に基づいて評価する。
論文 参考訳(メタデータ) (2021-10-07T04:48:48Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - Deep Reinforcement Learning with Stacked Hierarchical Attention for
Text-based Games [64.11746320061965]
自然言語の文脈におけるインタラクティブなシミュレーションであるテキストベースゲームの強化学習について検討する。
エージェントの動作が解釈可能な推論手順によって生成され、支援されるように、意思決定のための知識グラフを用いた明示的な推論を行うことを目指している。
提案手法を多数の人為的ベンチマークゲームで広範囲に評価し,本手法が既存のテキストベースエージェントよりも優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2020-10-22T12:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。