論文の概要: Knowledge Graph-enhanced Large Language Model for Incremental Game PlayTesting
- arxiv url: http://arxiv.org/abs/2511.02534v1
- Date: Tue, 04 Nov 2025 12:40:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.991687
- Title: Knowledge Graph-enhanced Large Language Model for Incremental Game PlayTesting
- Title(参考訳): インクリメンタルゲームプレイテストのための知識グラフ強化大言語モデル
- Authors: Enhong Mu, Jinyu Cai, Yijun Lu, Mingyue Zhang, Kenji Tei, Jialong Li,
- Abstract要約: 本稿では,段階的なゲーム更新に適した高精度かつ効率的なテストを行うためのKLPEGフレームワークを提案する。
このフレームワークは、ゲーム要素、タスク依存、因果関係を体系的にモデル化する知識グラフ(KG)を構築し、維持する。
OvercookedとMinecraftの2つの代表的なゲーム環境での実験は、KLPEGが更新によって影響を受ける機能をより正確に特定できることを実証している。
- 参考スコア(独自算出の注目度): 10.112811020571774
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid iteration and frequent updates of modern video games pose significant challenges to the efficiency and specificity of testing. Although automated playtesting methods based on Large Language Models (LLMs) have shown promise, they often lack structured knowledge accumulation mechanisms, making it difficult to conduct precise and efficient testing tailored for incremental game updates. To address this challenge, this paper proposes a KLPEG framework. The framework constructs and maintains a Knowledge Graph (KG) to systematically model game elements, task dependencies, and causal relationships, enabling knowledge accumulation and reuse across versions. Building on this foundation, the framework utilizes LLMs to parse natural language update logs, identify the scope of impact through multi-hop reasoning on the KG, enabling the generation of update-tailored test cases. Experiments in two representative game environments, Overcooked and Minecraft, demonstrate that KLPEG can more accurately locate functionalities affected by updates and complete tests in fewer steps, significantly improving both playtesting effectiveness and efficiency.
- Abstract(参考訳): 現代のビデオゲームの迅速なイテレーションと頻繁な更新は、テストの効率性と特異性に大きな課題をもたらす。
LLM(Large Language Models)に基づく自動プレイテスト手法は将来性を示しているが、構造化された知識蓄積機構が欠如していることが多いため、インクリメンタルなゲーム更新に適した正確かつ効率的なテストを行うのが困難である。
そこで本研究では,KLPEGフレームワークを提案する。
このフレームワークは、ゲーム要素、タスク依存、因果関係を体系的にモデル化する知識グラフ(KG)を構築し、維持し、バージョン間で知識の蓄積と再利用を可能にする。
この基盤の上に構築されたこのフレームワークは、LLMを使用して自然言語の更新ログを解析し、KG上のマルチホップ推論による影響範囲を特定し、更新調整されたテストケースの生成を可能にする。
2つの代表的なゲーム環境であるOvercookedとMinecraftの実験は、KLPEGがより正確に更新やテストの完了によって影響を受ける機能をより少ないステップで特定できることを示した。
関連論文リスト
- PuzzlePlex: Benchmarking Foundation Models on Reasoning and Planning with Puzzles [53.47227295854126]
本研究では,基礎モデルの推論と計画能力と,複雑な動的環境におけるスケーラビリティについて検討する。
PuzzlePlexは、様々なパズルによってこれらの能力を評価するために設計されたベンチマークである。
論文 参考訳(メタデータ) (2025-10-07T21:24:29Z) - Improving Large Language Models Function Calling and Interpretability via Guided-Structured Templates [56.73907811047611]
大規模言語モデル(LLM)は強力な推論とツール使用能力を示している。
LLMは、誤ったパラメータ化、悪いツールの選択、ユーザーの意図の誤解釈によって、現実世界のツールインタラクションで失敗することが多い。
我々は、構造化推論テンプレートを利用して、関数呼び出しを生成するためのより故意なステップバイステップ命令を通してLCMをガイドするカリキュラムに着想を得たフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-22T17:55:14Z) - Enhancing Large Language Model for Knowledge Graph Completion via Structure-Aware Alignment-Tuning [52.78024385391959]
知識グラフ補完(KGC)は、知識グラフから新しい知識を推測し、予測することを目的としている。
既存の手法は、自然言語とグラフ構造の間の矛盾した表現空間を無視することが多い。
構造認識アライメントチューニングにより,KGCのためのLLMを強化する新しいフレームワークSATを提案する。
論文 参考訳(メタデータ) (2025-09-01T06:38:11Z) - GVGAI-LLM: Evaluating Large Language Model Agents with Infinite Games [8.640618631999173]
GVGAI-LLMは,大規模言語モデル(LLM)の推論と問題解決能力を評価するためのゲームベンチマークである。
General Video Game AIフレームワーク上に構築され、既存のLLMベンチマークとは異なるタスクを処理するモデルの能力をテストするために設計された、アーケードスタイルのゲームの多種多様なコレクションを備えている。
論文 参考訳(メタデータ) (2025-08-11T22:17:07Z) - ReGUIDE: Data Efficient GUI Grounding via Spatial Reasoning and Search [53.40810298627443]
ReGUIDEは、MLLMが自己生成的推論と空間認識的批判を通じてデータを効率的に学習することを可能にするWebグラウンドのためのフレームワークである。
実験により、ReGUIDEは複数のベンチマークでWebグラウンド性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-05-21T08:36:18Z) - Log-Augmented Generation: Scaling Test-Time Reasoning with Reusable Computation [80.69067017594709]
大規模言語モデル(LLM)とそのエージェントモデルは、以前のタスクからの推論を維持するのに苦労する。
本稿では,従来の計算を直接再利用し,テスト時に過去のログから推論する新しいフレームワークであるLAGを提案する。
本手法は,ログを使用しない標準的なエージェントシステムよりも優れている。
論文 参考訳(メタデータ) (2025-05-20T14:14:38Z) - Knowledge Editing through Chain-of-Thought [31.230769348268282]
インコンテキスト編集(In-context editing)は、世界知識を維持するために、大きな言語モデル(LLM)を新しい情報で更新する技法である。
その可能性にもかかわらず、既存のコンテキスト内知識編集手法はしばしばタスク固有である。
本研究では,リトレーニングを伴わずに,様々なタスクにまたがるLSMを柔軟かつ効率的に更新する新しい知識編集フレームワークEditCoTを提案する。
論文 参考訳(メタデータ) (2024-12-23T17:17:50Z) - LLM-Based Multi-Hop Question Answering with Knowledge Graph Integration in Evolving Environments [35.3938477255058]
本稿では,大規模言語モデル(GMeLLo)のためのグラフメモリベースの編集について述べる。
これは、知識グラフの明示的な知識表現と、大規模言語モデルの言語的柔軟性を融合させる、単純で効果的な方法である。
以上の結果から,GMeLLoはマルチホップ質問応答ベンチマークであるMQuAKEにおいて,最先端の知識編集手法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-08-28T16:15:45Z) - clembench-2024: A Challenging, Dynamic, Complementary, Multilingual Benchmark and Underlying Flexible Framework for LLMs as Multi-Action Agents [19.989503513817095]
大きな言語モデルは、特定の能力を探索する会話ゲームに"セルフプレイ"するよう促すことができる。
本稿では,このようなゲームプレイ環境を構築するためのフレームワークの1つを取り上げ,その有効性を評価機器として検証する。
論文 参考訳(メタデータ) (2024-05-31T14:43:31Z) - Comparative Code Structure Analysis using Deep Learning for Performance
Prediction [18.226950022938954]
本稿では,アプリケーションの静的情報(抽象構文木やASTなど)を用いてコード構造の変化に基づいて性能変化を予測することの実現可能性を評価することを目的とする。
組込み学習手法の評価により,木系長短メモリ(LSTM)モデルでは,ソースコードの階層構造を利用して遅延表現を発見し,最大84%(個人的問題)と73%(複数の問題を含む組み合わせデータセット)の精度で性能変化を予測できることが示された。
論文 参考訳(メタデータ) (2021-02-12T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。