論文の概要: Generative Personas That Behave and Experience Like Humans
- arxiv url: http://arxiv.org/abs/2209.00459v1
- Date: Fri, 26 Aug 2022 12:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-04 02:04:07.848782
- Title: Generative Personas That Behave and Experience Like Humans
- Title(参考訳): 人間らしく経験する創造的な人格
- Authors: Matthew Barthet, Ahmed Khalifa, Antonios Liapis and Georgios N.
Yannakakis
- Abstract要約: 生成AIエージェントは、ルール、報酬、または人間のデモンストレーションとして表される特定の演奏行動の模倣を試みる。
我々は、行動手続き的ペルソナの概念をプレイヤー体験に適応させるよう拡張し、プレイヤーが人間のように行動し、経験できる生成エージェントを調べる。
その結果, 生成したエージェントは, 模倣を意図した人物のプレイスタイルや経験的反応を呈することが示唆された。
- 参考スコア(独自算出の注目度): 3.611888922173257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Using artificial intelligence (AI) to automatically test a game remains a
critical challenge for the development of richer and more complex game worlds
and for the advancement of AI at large. One of the most promising methods for
achieving that long-standing goal is the use of generative AI agents, namely
procedural personas, that attempt to imitate particular playing behaviors which
are represented as rules, rewards, or human demonstrations. All research
efforts for building those generative agents, however, have focused solely on
playing behavior which is arguably a narrow perspective of what a player
actually does in a game. Motivated by this gap in the existing state of the
art, in this paper we extend the notion of behavioral procedural personas to
cater for player experience, thus examining generative agents that can both
behave and experience their game as humans would. For that purpose, we employ
the Go-Explore reinforcement learning paradigm for training human-like
procedural personas, and we test our method on behavior and experience
demonstrations of more than 100 players of a racing game. Our findings suggest
that the generated agents exhibit distinctive play styles and experience
responses of the human personas they were designed to imitate. Importantly, it
also appears that experience, which is tied to playing behavior, can be a
highly informative driver for better behavioral exploration.
- Abstract(参考訳): 人工知能(AI)を使ってゲームを自動的にテストすることは、よりリッチで複雑なゲーム世界の開発と、AI全体の進歩にとって重要な課題である。
長年の目標を達成するための最も有望な方法の1つは、ルール、報酬、または人間のデモンストレーションとして表される特定の遊び行動を模倣しようとする、生成的なaiエージェント、すなわち手続き型パーソナラの使用である。
しかし、これらの生成エージェントを構築するための研究のすべては、プレイヤーがゲームで実際に行うことの狭義の視点であるゲーム行動のみに焦点を当ててきた。
本論文は,既存の技術状況におけるこのギャップに触発され,行動手続き的ペルソナの概念をプレイヤー体験に役立てるために拡張し,人間の行動と経験の両方が可能な生成エージェントについて検討する。
そこで我々は,Go-Explore強化学習パラダイムを用いて,人間のようなプロシージャペルソナを訓練し,100人以上の競技者の行動と経験を実演する手法を検証した。
その結果, 生成したエージェントは, 模倣を意図した人物のプレイスタイルと経験的反応を示すことがわかった。
重要なのは、演奏行動に結びついている経験が、行動探索を改善する上で非常に有意義なドライバーになり得ることだ。
関連論文リスト
- Reinforcement Learning for High-Level Strategic Control in Tower Defense Games [47.618236610219554]
戦略ゲームにおいて、ゲームデザインの最も重要な側面の1つは、プレイヤーにとっての挑戦の感覚を維持することである。
従来のスクリプティング手法と強化学習を組み合わせた自動手法を提案する。
その結果、強化学習のような学習アプローチとスクリプトAIを組み合わせることで、AIのみを使用するよりも高性能で堅牢なエージェントが生まれることが示された。
論文 参考訳(メタデータ) (2024-06-12T08:06:31Z) - Toward Human-AI Alignment in Large-Scale Multi-Player Games [24.784173202415687]
我々はXboxのBleeding Edge(100K+ゲーム)から広範囲にわたる人間のゲームプレイデータを解析する。
人間のプレイヤーは、戦闘飛行や探索飛行行動において多様性を示す一方で、AIプレイヤーは均一性に向かう傾向にある。
これらの大きな違いは、ヒューマンアラインアプリケーションにおけるAIの解釈可能な評価、設計、統合の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-05T22:55:33Z) - Enhancing Human Experience in Human-Agent Collaboration: A
Human-Centered Modeling Approach Based on Positive Human Gain [18.968232976619912]
協調型AIエージェントのための「人間中心型」モデリング手法を提案する。
エージェントは、エージェントの本来の能力を維持しながら、人間がこれらの目標を達成する度合いを高めることを学ぶべきである。
マルチプレイヤーオンラインバトルアリーナ(MOBA)ゲーム「Honor of Kings」におけるRLHGエージェントの評価を行った。
論文 参考訳(メタデータ) (2024-01-28T05:05:57Z) - Behavioural Cloning in VizDoom [1.4999444543328293]
本稿では,Imitation Learning (IL) による自律エージェントのゲーム「Doom 2」の学習方法について述べる。
また,Reinforcement Learning (RL) がカメラの動きと軌跡データを比較することで,人間性に対するILとの比較を行う。
論文 参考訳(メタデータ) (2024-01-08T16:15:43Z) - DanZero+: Dominating the GuanDan Game through Reinforcement Learning [95.90682269990705]
我々は、GuanDanという、非常に複雑で人気のあるカードゲームのためのAIプログラムを開発した。
私たちはまず、DanZeroという名のAIプログラムをこのゲームのために提案しました。
AIの能力をさらに強化するために、政策に基づく強化学習アルゴリズムをGuanDanに適用する。
論文 参考訳(メタデータ) (2023-12-05T08:07:32Z) - DanZero: Mastering GuanDan Game with Reinforcement Learning [121.93690719186412]
カードゲームAIは、人工知能の研究において常にホットな話題となっている。
本稿では,より複雑なカードゲームであるGuanDanのためのAIプログラムの開発に専念する。
そこで我々は,強化学習技術を用いたGuanDanのためのAIプログラムDanZeroを提案する。
論文 参考訳(メタデータ) (2022-10-31T06:29:08Z) - Human-Like Navigation Behavior: A Statistical Evaluation Framework [0.0]
我々は,人工エージェントの挙動と人間プレイヤーの挙動を比較するために,非パラメトリック2サンプル仮説テストを構築した。
結果として得られる$p$-valueは、人間のような行動の無名な判断と一致しているだけでなく、類似性の尺度として使用できることを示す。
論文 参考訳(メタデータ) (2022-03-10T01:07:34Z) - AI in (and for) Games [0.9920773256693857]
この章では、人工知能(AI)/機械学習(ML)アルゴリズムとデジタルゲームとの関係について概説する。
一方、ai/ml研究者は、人間の感情的活動、プレイヤーの行動に関する大規模かつ内部的なデータセットを生成できる。
一方、ゲームは知的アルゴリズムを利用して、ゲームレベルのテストの自動化、コンテンツの生成、知的でレスポンシブな非プレイヤーキャラクタ(NPC)の開発、プレイヤーの振る舞いの予測と応答を行うことができる。
論文 参考訳(メタデータ) (2021-05-07T08:57:07Z) - Policy Fusion for Adaptive and Customizable Reinforcement Learning
Agents [137.86426963572214]
異なる行動政策を結合して有意義な「融合」政策を得る方法を示す。
事前学習されたポリシーを組み合わせるための4つの異なるポリシー融合手法を提案する。
これらの手法がゲーム制作や設計に実際どのように役立つのか,実例とユースケースをいくつか紹介する。
論文 参考訳(メタデータ) (2021-04-21T16:08:44Z) - Teach me to play, gamer! Imitative learning in computer games via
linguistic description of complex phenomena and decision tree [55.41644538483948]
本稿では,複雑な現象の言語記述に基づく模倣による新しい機械学習モデルを提案する。
この手法は,ゲーム開発における知的エージェントの動作を設計し,実装するための優れた代替手段となる。
論文 参考訳(メタデータ) (2021-01-06T21:14:10Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。