論文の概要: MIMIC: Integrating Diverse Personality Traits for Better Game Testing Using Large Language Model
- arxiv url: http://arxiv.org/abs/2510.01635v1
- Date: Thu, 02 Oct 2025 03:30:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.97034
- Title: MIMIC: Integrating Diverse Personality Traits for Better Game Testing Using Large Language Model
- Title(参考訳): MIMIC:大規模言語モデルを用いたゲームテストのための多言語パーソナリティトラストの統合
- Authors: Yifei Chen, Sarra Habchi, Lili Wei,
- Abstract要約: MIMICは多様な性格特性をゲームエージェントに統合する新しいフレームワークである。
より高いテストカバレッジと、異なるゲーム間でのよりリッチなゲーム内インタラクションを実現することができる。
また、マインクラフトの最先端エージェントよりも高いタスク完了率を達成している。
- 参考スコア(独自算出の注目度): 9.426130742272715
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modern video games pose significant challenges for traditional automated testing algorithms, yet intensive testing is crucial to ensure game quality. To address these challenges, researchers designed gaming agents using Reinforcement Learning, Imitation Learning, or Large Language Models. However, these agents often neglect the diverse strategies employed by human players due to their different personalities, resulting in repetitive solutions in similar situations. Without mimicking varied gaming strategies, these agents struggle to trigger diverse in-game interactions or uncover edge cases. In this paper, we present MIMIC, a novel framework that integrates diverse personality traits into gaming agents, enabling them to adopt different gaming strategies for similar situations. By mimicking different playstyles, MIMIC can achieve higher test coverage and richer in-game interactions across different games. It also outperforms state-of-the-art agents in Minecraft by achieving a higher task completion rate and providing more diverse solutions. These results highlight MIMIC's significant potential for effective game testing.
- Abstract(参考訳): 現代のビデオゲームは、従来の自動テストアルゴリズムには重大な課題があるが、ゲームの品質を保証するためには、集中的なテストが不可欠である。
これらの課題に対処するため、研究者は強化学習、模倣学習、または大規模言語モデルを用いてゲームエージェントを設計した。
しかしながら、これらのエージェントは、個性が異なるため、人間のプレイヤーが採用する多様な戦略を無視し、同様の状況において反復的な解決策をもたらすことが多い。
さまざまなゲーム戦略を模倣することなく、これらのエージェントは多様なゲーム内相互作用を誘発したり、エッジケースを明らかにするのに苦労する。
本稿では,様々な性格特性をゲームエージェントに統合する新しいフレームワークMIMICについて述べる。
異なるプレイスタイルを模倣することにより、MIMICはより高いテストカバレッジと、異なるゲーム間でのよりリッチなゲーム内インタラクションを実現することができる。
また、タスク完了率を高め、より多様なソリューションを提供することで、Minecraftの最先端エージェントよりも優れています。
これらの結果は、MIMICの効果的なゲームテストに対する大きな可能性を浮き彫りにしている。
関連論文リスト
- FlashAdventure: A Benchmark for GUI Agents Solving Full Story Arcs in Diverse Adventure Games [56.81554611870848]
我々はFlashAdventureを紹介した。これは、フルストーリーのアーク補完をテストするために設計された、34のFlashベースのアドベンチャーゲームのベンチマークである。
また,ゲームプレイの自動評価装置であるCUA-as-a-Judgeと,長期記憶を利用したエージェントフレームワークであるCOASTを提案する。
実験では、現在のGUIエージェントがフルストーリーのアークに苦しむのに対して、COASTは観察と振る舞いのギャップを埋めることでマイルストーンの完了を改善する。
論文 参考訳(メタデータ) (2025-09-01T01:33:16Z) - Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Securing Equal Share: A Principled Approach for Learning Multiplayer Symmetric Games [21.168085154982712]
マルチプレイヤーゲームにおける平衡は、一意でも爆発的でもない。
本稿では,平等な共有という自然な目的に焦点をあてることで,これらの課題に対処するための最初の一歩を踏み出す。
我々は、様々な設定でほぼ同じシェアを確実に得る、非回帰学習にインスパイアされた、一連の効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-06-06T15:59:17Z) - Preference-conditioned Pixel-based AI Agent For Game Testing [1.5059676044537105]
環境とのインタラクションによって学習するゲームテストAIエージェントは、これらの課題を軽減する可能性がある。
本稿では,ユーザの好みに応じて設定された環境を探索しながら,主に画素ベースの状態観測に依存するエージェント設計を提案する。
実AAAゲームにおける多くの側面に類似した複雑なオープンワールド環境において、調査対象とテスト実行品質に対して、我々のエージェントは、最先端の画素ベースのゲームテストエージェントよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-08-18T04:19:36Z) - Collusion Detection in Team-Based Multiplayer Games [57.153233321515984]
チームベースのマルチプレイヤーゲームにおいて,協調動作を検出するシステムを提案する。
提案手法は,ゲーム内行動パターンと組み合わせたプレイヤーの社会的関係を解析する。
次に,非教師なし学習手法であるアイソレーションフォレストによる検出を自動化する。
論文 参考訳(メタデータ) (2022-03-10T02:37:39Z) - Pick Your Battles: Interaction Graphs as Population-Level Objectives for
Strategic Diversity [49.68758494467258]
我々は、集団内の個人がどのように相互作用するかを慎重に構造化することで、多様なエージェントの集団を構築する方法について研究する。
我々のアプローチは,エージェント間の情報の流れを制御するインタラクショングラフに基づいている。
マルチエージェント・トレーニングにおける多様性の重要性を証明し,様々な相互作用グラフを適用したゲームにおけるトレーニング・トラジェクトリ,多様性,パフォーマンスに与える影響を解析する。
論文 参考訳(メタデータ) (2021-10-08T11:29:52Z) - Policy Fusion for Adaptive and Customizable Reinforcement Learning
Agents [137.86426963572214]
異なる行動政策を結合して有意義な「融合」政策を得る方法を示す。
事前学習されたポリシーを組み合わせるための4つの異なるポリシー融合手法を提案する。
これらの手法がゲーム制作や設計に実際どのように役立つのか,実例とユースケースをいくつか紹介する。
論文 参考訳(メタデータ) (2021-04-21T16:08:44Z) - Generating Diverse and Competitive Play-Styles for Strategy Games [58.896302717975445]
ターン型戦略ゲーム(Tribes)のためのプログレッシブアンプランによるPortfolio Monte Carlo Tree Searchを提案する。
品質分散アルゴリズム(MAP-Elites)を使用して異なるプレイスタイルを実現し、競争レベルを維持しながらパラメータ化する方法を示します。
その結果,このアルゴリズムは,トレーニングに用いるレベルを超えて,幅広いゲームレベルにおいても,これらの目標を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-17T20:33:24Z) - Griddly: A platform for AI research in games [0.0]
我々はGriddlyをゲームAI研究の新しいプラットフォームとして紹介する。
Griddlyは、高度にカスタマイズ可能なゲーム、異なるオブザーバタイプ、効率的なC++コアエンジンのユニークな組み合わせを提供する。
本稿では,RLエージェントの観察構成と一般化能力の相違について,一連の基礎実験を行った。
論文 参考訳(メタデータ) (2020-11-12T13:23:31Z) - The Multi-Agent Reinforcement Learning in MalmÖ (MARLÖ) Competition [14.726566410348985]
The Multi-Agent Reinforcement Learning in Malm"O (MARL"O) competition is a new challenge that proposes research in this domain using multiple 3D games。
このコンテストの目的は、様々なゲームや対戦相手を学習できる一般エージェントの研究を促進することである。
論文 参考訳(メタデータ) (2019-01-23T21:01:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。