論文の概要: From Gameplay Traces to Game Mechanics: Causal Induction with Large Language Models
- arxiv url: http://arxiv.org/abs/2602.00190v1
- Date: Fri, 30 Jan 2026 08:48:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.043173
- Title: From Gameplay Traces to Game Mechanics: Causal Induction with Large Language Models
- Title(参考訳): ゲームプレイトレースからゲームメカニクスへ:大規模言語モデルによる因果誘導
- Authors: Mohit Jiwatode, Alexander Dockhorn, Bodo Rosenhahn,
- Abstract要約: 本稿では,観測データから法則を推定できる因果誘導について検討する。
本稿では,VGDL生成に対する2つのアプローチを比較する。観測からの直接コード生成と,まず構造因果モデル(SCM)を推定し,次にVGDLに変換する2段階法である。
その結果,SCMに基づくアプローチは,直接生成よりも基礎的真実に近いVGDL記述を多く生み出すことがわかった。
- 参考スコア(独自算出の注目度): 64.43268969806098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning agents can achieve high performance in complex game domains without often understanding the underlying causal game mechanics. To address this, we investigate Causal Induction: the ability to infer governing laws from observational data, by tasking Large Language Models (LLMs) with reverse-engineering Video Game Description Language (VGDL) rules from gameplay traces. To reduce redundancy, we select nine representative games from the General Video Game AI (GVGAI) framework using semantic embeddings and clustering. We compare two approaches to VGDL generation: direct code generation from observations, and a two-stage method that first infers a structural causal model (SCM) and then translates it into VGDL. Both approaches are evaluated across multiple prompting strategies and controlled context regimes, varying the amount and form of information provided to the model, from just raw gameplay observations to partial VGDL specifications. Results show that the SCM-based approach more often produces VGDL descriptions closer to the ground truth than direct generation, achieving preference win rates of up to 81\% in blind evaluations and yielding fewer logically inconsistent rules. These learned SCMs can be used for downstream use cases such as causal reinforcement learning, interpretable agents, and procedurally generating novel but logically consistent games.
- Abstract(参考訳): 深層学習エージェントは、基礎となる因果ゲーム力学を理解することなく、複雑なゲーム領域で高いパフォーマンスを達成することができる。
そこで本研究では,ゲーム記述言語(VGDL)ルールをゲームトレースからリバースエンジニアリングすることで,大規模言語モデル(LLM)を問うことにより,観測データから法則を推論する能力について検討する。
冗長性を低減するため、セマンティック埋め込みとクラスタリングを用いて、汎用ビデオゲームAI(GVGAI)フレームワークから9つの代表ゲームを選択する。
本稿では,VGDL生成に対する2つのアプローチを比較する。観測からの直接コード生成と,まず構造因果モデル(SCM)を推定し,次にVGDLに変換する2段階法である。
どちらの手法も複数のプロンプト戦略と制御された文脈条件で評価され、生のゲームプレイ観察から部分的なVGDL仕様まで、モデルに提供された情報量と形態が変化する。
その結果、SCMに基づくアプローチは、直接生成よりも基礎的な真実に近いVGDL記述を多く生成し、ブラインド評価において最大81倍の選好勝利率を達成し、論理的に矛盾するルールを少なくすることを示した。
これらの学習されたSCMは、因果強化学習、解釈エージェント、手続き的に新しいが論理的に一貫性のあるゲームを生成するといった下流ユースケースに使用できる。
関連論文リスト
- Video-R2: Reinforcing Consistent and Grounded Reasoning in Multimodal Language Models [56.851611990473174]
動的ビジュアルコンテンツに対する推論は、大きな言語モデルにとって依然として中心的な課題である。
本稿では,時間的精度と推論一貫性を両立させる強化学習手法を提案する。
結果のモデルであるVideo R2は、複数のベンチマークでTAC、VAS、精度を一貫して向上させる。
論文 参考訳(メタデータ) (2025-11-28T18:59:58Z) - Code World Models for General Game Playing [22.382021070682256]
我々はLarge Language Modelsを用いて、自然言語規則とゲーム軌跡をPythonコードとして表現された形式的で実行可能な世界モデルに変換する。
この生成モデルは、高性能計画アルゴリズムの検証可能なシミュレーションエンジンとして機能する。
提案手法は,10ゲーム中9ゲームにおいて,Gemini 2.5 Proより優れているか,あるいは一致していることがわかった。
論文 参考訳(メタデータ) (2025-10-06T07:16:07Z) - Every Step Counts: Decoding Trajectories as Authorship Fingerprints of dLLMs [63.82840470917859]
本稿では,dLLMの復号化機構をモデル属性の強力なツールとして利用できることを示す。
本稿では、デコードステップ間の構造的関係を捉え、モデル固有の振る舞いをよりよく明らかにする、DDM(Directed Decoding Map)と呼ばれる新しい情報抽出手法を提案する。
論文 参考訳(メタデータ) (2025-10-02T06:25:10Z) - GVGAI-LLM: Evaluating Large Language Model Agents with Infinite Games [7.594173359523366]
GVGAI-LLMは,大規模言語モデル(LLM)の推論と問題解決能力を評価するためのゲームベンチマークである。
General Video Game AIフレームワーク上に構築され、既存のLLMベンチマークとは異なるタスクを処理するモデルの能力をテストするために設計された、アーケードスタイルのゲームの多種多様なコレクションを備えている。
論文 参考訳(メタデータ) (2025-08-11T22:17:07Z) - Game-RL: Synthesizing Multimodal Verifiable Game Data to Boost VLMs' General Reasoning [89.93384726755106]
視覚言語強化学習(RL)は主に狭い領域に焦点を当てている。
ビデオゲームは本質的に、検証が容易なリッチなビジュアル要素とメカニクスを提供します。
ビデオゲームにおけるマルチモーダルかつ検証可能な報酬を完全に活用するために,Game-RLを提案する。
論文 参考訳(メタデータ) (2025-05-20T03:47:44Z) - Grammar and Gameplay-aligned RL for Game Description Generation with LLMs [12.329521804287259]
ゲーム記述生成(GDG)は、自然言語テキストからゲーム記述言語(GDL)で記述されたゲーム記述を生成するタスクである。
GDG(RLGDG)のための強化学習に基づく大規模言語モデルの微調整を提案する。
学習方法は,ゲームコンセプトに対する文法的正しさと忠実さを同時に向上させる。
論文 参考訳(メタデータ) (2025-03-20T01:47:33Z) - DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation [57.07295906718989]
制約付き復号法は,事前訓練された大言語(Ms と PLMs)が生成するテキストの意味やスタイルを,推論時に様々なタスクに対して制御することを目的としている。
これらの方法は、しばしば、欲求的かつ明示的にターゲットを選択することによって、もっともらしい連続を導く。
認知二重プロセス理論に着想を得て,新しい復号化フレームワークDECDERを提案する。
論文 参考訳(メタデータ) (2024-03-04T11:49:08Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。