論文の概要: Improving Playtesting Coverage via Curiosity Driven Reinforcement
Learning Agents
- arxiv url: http://arxiv.org/abs/2103.13798v1
- Date: Thu, 25 Mar 2021 12:51:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:32:53.218404
- Title: Improving Playtesting Coverage via Curiosity Driven Reinforcement
Learning Agents
- Title(参考訳): 好奇心駆動強化学習エージェントによるプレイテストカバレッジの改善
- Authors: Camilo Gordillo, Joakim Bergdahl, Konrad Tollmar, Linus Gissl\'en
- Abstract要約: 本稿では,ゲーム状態カバレッジを最大化するためにトレーニングされた強化学習エージェントを用いて,与えられたシナリオを自動的に探索し,テストする問題に対処する。
好奇心のあるエージェントは、地図の周りのさまざまな領域に到達するために必要な複雑なナビゲーションメカニズムを学ぶことができ、潜在的な問題を特定するために必要なデータを提供します。
- 参考スコア(独自算出の注目度): 0.4129225533930966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As modern games continue growing both in size and complexity, it has become
more challenging to ensure that all the relevant content is tested and that any
potential issue is properly identified and fixed. Attempting to maximize
testing coverage using only human participants, however, results in a tedious
and hard to orchestrate process which normally slows down the development
cycle. Complementing playtesting via autonomous agents has shown great promise
accelerating and simplifying this process. This paper addresses the problem of
automatically exploring and testing a given scenario using reinforcement
learning agents trained to maximize game state coverage. Each of these agents
is rewarded based on the novelty of its actions, thus encouraging a curious and
exploratory behaviour on a complex 3D scenario where previously proposed
exploration techniques perform poorly. The curious agents are able to learn the
complex navigation mechanics required to reach the different areas around the
map, thus providing the necessary data to identify potential issues. Moreover,
the paper also explores different visualization strategies and evaluates how to
make better use of the collected data to drive design decisions and to
recognize possible problems and oversights.
- Abstract(参考訳): 現代ゲームはサイズと複雑さの両方で成長を続けており、関連するすべてのコンテンツがテストされ、潜在的な問題が適切に特定され、修正されることを保証することはより困難になっている。
しかし、人間の参加者だけを使ってテストカバレッジを最大化しようとすると、通常は開発サイクルを遅くするプロセスを調整するのが面倒で難しくなります。
自律的なエージェントによるプレイテストの補完は、このプロセスを加速し、単純化する大きな約束を示している。
本稿では,ゲーム状態カバレッジを最大化するためにトレーニングされた強化学習エージェントを用いて,与えられたシナリオを自動的に探索し,テストする問題に対処する。
それぞれのエージェントは、その行動の新規性に基づいて報酬を受け、これまで提案された探索手法が不十分であった複雑な3Dシナリオにおいて、好奇的で探索的な振る舞いを奨励する。
好奇心をそそるエージェントは、地図の異なる領域に到達するのに必要な複雑なナビゲーションメカニズムを学習することができ、潜在的な問題を特定するために必要なデータを提供することができる。
さらに、さまざまな視覚化戦略を探求し、収集したデータをよりよく活用して設計決定を推し進め、考えられる問題や見落としを認識させる方法について評価する。
関連論文リスト
- DISCOVERYWORLD: A Virtual Environment for Developing and Evaluating Automated Scientific Discovery Agents [49.74065769505137]
本研究では,新しい科学的発見の完全なサイクルを実行するエージェントの能力を開発し,ベンチマークする最初の仮想環境であるDiscoVERYWORLDを紹介する。
8つのトピックにまたがる120の異なる課題タスクが含まれており、3レベルの難易度といくつかのパラメトリックなバリエーションがある。
従来の環境においてよく機能する強力なベースラインエージェントが、ほとんどのdiscoVERYWORLDタスクに苦労していることがわかった。
論文 参考訳(メタデータ) (2024-06-10T20:08:44Z) - Robust Pedestrian Detection via Constructing Versatile Pedestrian Knowledge Bank [51.66174565170112]
本稿では,多目的な歩行者知識銀行を構築するための新しいアプローチを提案する。
我々は大規模な事前訓練モデルから歩行者の知識を抽出する。
次に、ほとんどの代表的特徴を定量化し、背景のシーンと区別できるように指導することで、それらをキュレートする。
論文 参考訳(メタデータ) (2024-04-30T07:01:05Z) - A Comprehensive Survey of Forgetting in Deep Learning Beyond Continual Learning [58.107474025048866]
蓄積とは、以前に獲得した知識の喪失または劣化を指す。
フォッテッティングは、深層学習における様々な研究領域でよく見られる現象である。
論文 参考訳(メタデータ) (2023-07-16T16:27:58Z) - CCPT: Automatic Gameplay Testing and Validation with
Curiosity-Conditioned Proximal Trajectories [65.35714948506032]
Curiosity-Conditioned Proximal Trajectories (CCPT)法は、好奇心と模倣学習を組み合わせてエージェントを訓練して探索する。
CCPTが複雑な環境を探索し、ゲームプレイの問題を発見し、その過程におけるデザインの監視を行い、それらをゲームデザイナーに直接認識し、強調する方法について説明する。
論文 参考訳(メタデータ) (2022-02-21T09:08:33Z) - Open-Ended Learning Leads to Generally Capable Agents [12.079718607356178]
環境領域内のタスクの宇宙を定義し、この広大な空間をまたいだエージェントを訓練する能力を示す。
結果として生じる空間は、エージェントがもたらす課題に関して非常に多様であり、エージェントの学習の進捗を測定することさえも、オープンな研究課題である。
オープンエンド学習プロセスの構築により,エージェントが学習を止めないようなトレーニングタスク分布や訓練目標を動的に変化させることで,新しい行動の一貫性のある学習が可能になることを示す。
論文 参考訳(メタデータ) (2021-07-27T13:30:07Z) - Adversarial Imitation Learning with Trajectorial Augmentation and
Correction [61.924411952657756]
本稿では,拡張軌道の成功を保った新しい拡張手法を提案する。
我々は, 合成専門家を用いた模倣エージェントの訓練を行うために, 逆データ拡張模倣アーキテクチャを開発した。
実験により,我々のデータ拡張戦略は,敵対的模倣の精度と収束時間を向上できることが示された。
論文 参考訳(メタデータ) (2021-03-25T14:49:32Z) - Modeling Penetration Testing with Reinforcement Learning Using
Capture-the-Flag Challenges: Trade-offs between Model-free Learning and A
Priori Knowledge [0.0]
侵入テストは、システムに対する攻撃をシミュレートしてシステムのセキュリティを評価するためのセキュリティエクササイズである。
本稿では,フラッグハックの難しさをとらえる形で表現された,簡易な浸透試験問題に焦点を当てる。
エージェントに提供可能な事前知識の異なる形式に依存することで、この課題が緩和される可能性を示す。
論文 参考訳(メタデータ) (2020-05-26T11:23:10Z) - Planning to Explore via Self-Supervised World Models [120.31359262226758]
Plan2Exploreは自己監督型強化学習エージェントである。
我々は、自己監督型探索と、新しいタスクへの迅速な適応に対する新しいアプローチを提案する。
Plan2Exploreは、訓練の監督やタスク固有の相互作用がなければ、自己監督型の探査方法よりも優れている。
論文 参考訳(メタデータ) (2020-05-12T17:59:45Z) - Self-Supervised Discovering of Interpretable Features for Reinforcement
Learning [40.52278913726904]
深層強化学習のための自己教師付き解釈可能なフレームワークを提案する。
タスク関連情報を強調するための細かな注意マスクを作成するために、自己教師型解釈ネットワーク(SSINet)が使用される。
Atari 2600とDuckietownは、自動運転車のシミュレータ環境として難易度の高い環境である。
論文 参考訳(メタデータ) (2020-03-16T08:26:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。