論文の概要: An AI Dungeon Master's Guide: Learning to Converse and Guide with
Intents and Theory-of-Mind in Dungeons and Dragons
- arxiv url: http://arxiv.org/abs/2212.10060v1
- Date: Tue, 20 Dec 2022 08:06:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 13:51:58.288809
- Title: An AI Dungeon Master's Guide: Learning to Converse and Guide with
Intents and Theory-of-Mind in Dungeons and Dragons
- Title(参考訳): AIダンジョンマスターガイド:ダンジョンとドラゴンにおけるインテントとミンド理論による会話とガイドの学習
- Authors: Pei Zhou, Andrew Zhu, Jennifer Hu, Jay Pujara, Xiang Ren, Chris
Callison-Burch, Yejin Choi, Prithviraj Ammanabrolu
- Abstract要約: 本稿では,G4C(Goal-driven Guidance Generation in Grounded Communication)という新たなタスクを提案する。
具体的には、複数のプレイヤーキャラクターとダンジョンマスター(DM)で構成されるロールプレイングゲームであるダンジョンズ・アンド・ドラゴンズ(D&D)を、このタスクのテストベッドとして選択する。
我々は、強化学習(RL)を用いたDMの学習において、その発話に対してプレイヤーがどう反応するかを予測するための理論に着想を得た手法を提案する。
- 参考スコア(独自算出の注目度): 82.28503603235364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel task, G4C (Goal-driven Guidance Generation in Grounded
Communication), for studying goal-driven and grounded natural language
interactions. Specifically, we choose Dungeons and Dragons (D&D) -- a
role-playing game consisting of multiple player characters and a Dungeon Master
(DM) who collaborate to achieve a set of goals that are beneficial to the
players -- as a testbed for this task. Here, each of the player characters is a
student, with their own personas and abilities, and the DM is the teacher, an
arbitrator of the rules of the world and responsible for assisting and guiding
the students towards a global goal. We propose a theory-of-mind-inspired
methodology for training such a DM with reinforcement learning (RL), where a
DM: (1) learns to predict how the players will react to its utterances using a
dataset of D&D dialogue transcripts; and (2) uses this prediction as a reward
function providing feedback on how effective these utterances are at guiding
the players towards a goal. Human and automated evaluations show that a DM
trained with RL to generate guidance by incorporating a theory-of-mind of the
players significantly improves the players' ability to achieve goals grounded
in their shared world.
- Abstract(参考訳): 本稿では,G4C(Goal-driven Guidance Generation in Grounded Communication)という新たなタスクを提案する。
具体的には、ダンジョンズ&ドラゴンズ(d&d) — 複数のプレイヤーキャラクターとダンジョンマスター(dm)で構成されるロールプレイングゲームで、プレイヤーにとって有益な一連のゴールを達成するために協力します。
ここで、各プレイヤーキャラクターは生徒であり、自分達のパーソナラと能力を持ち、dmは教師であり、世界のルールの仲裁役であり、学生を世界的な目標に向けて支援し指導する役割を担っている。
本稿では,強化学習(RL)を用いたDM学習手法を提案する。(1)D&D対話文のデータセットを用いて,プレイヤーが発話に対してどのように反応するかを予測し,(2)これらの発話が目的に向かっていかに効果的であるかをフィードバックする報奨関数として用いる。
人的および自動化された評価により、プレイヤーの理論を取り入れることで、rlで訓練されたdmは、共有世界におけるゴールを達成するためのプレイヤーの能力を大幅に向上させる。
関連論文リスト
- Attacks and Defenses for Generative Diffusion Models: A Comprehensive Survey [5.300811350105823]
拡散モデル (DM) は様々な生成タスクにおいて最先端の性能を達成した。
近年の研究では、DMは幅広い攻撃を受けやすいことが示されている。
論文 参考訳(メタデータ) (2024-08-06T18:52:17Z) - Skill Check: Some Considerations on the Evaluation of Gamemastering
Models for Role-playing Games [0.5803309695504829]
ロールプレイングゲームにおいて、ゲームマスター(ゲームマスター、英: Game Master、GM)は、プレイヤーが直面している課題をデザインし、アクションの結果を物語るゲームマスターである。
本稿では,対話型ストーリテリングと自然言語処理の観点から,GMをモデル化する上での課題について論じる。
これらの課題に続き、このような対話システムを評価するための3つのテストカテゴリを提案し、ChatGPT、Bard、OpenAssistantをアウト・オブ・ボックスGMとしてテストする。
論文 参考訳(メタデータ) (2023-09-24T17:19:36Z) - CALYPSO: LLMs as Dungeon Masters' Assistants [46.61924662589895]
大規模言語モデル(LLM)は、一貫性のある自然言語テキストを生成する優れた能力を示している。
本稿では,LCMを利用したインタフェースシステムであるCALYPSOについて紹介する。
CALYPSOへのアクセスが認められたとき、DMはプレイヤーへの直接のプレゼンテーションに適した高忠実なテキストを生成し、DMがクリエイティブエージェンシーを維持しながらさらに発展できるという低忠実なアイデアを作成したと報告した。
論文 参考訳(メタデータ) (2023-08-15T02:57:00Z) - Dungeons and Dragons as a Dialog Challenge for Artificial Intelligence [28.558934742150022]
我々はD&Dを対話システムチャレンジとみなし、ゲーム内の次の会話のターンを生成し、対話履歴が与えられたゲームの状態を予測する。
約900のゲームで構成され、合計7000人のプレーヤー、80万の対話ターン、50万のダイスロール、58万の単語からなるゲームプレイデータセットを作成します。
我々は、大きな言語モデル(LM)を訓練し、異なる情報に基づいて次のゲームターンを生成する。
論文 参考訳(メタデータ) (2022-10-13T15:43:39Z) - A Mixture-of-Expert Approach to RL-based Dialogue Management [56.08449336469477]
我々は、強化学習を用いて、近視性(一般的な発話の出力)を回避し、全体的なユーザ満足度を最大化する対話エージェントを開発する。
既存のRLアプローチのほとんどは、単語レベルでエージェントを訓練するので、中規模の語彙であっても、非常に複雑なアクション空間を扱う必要がある。
i)会話履歴の多様な意味を学習できるLMと、(ii)対応する発話を生成できる専門的なLM(または専門家)からなる、新しい専門家言語モデル(MoE-LM)を用いたRLベースのDMを開発する。
論文 参考訳(メタデータ) (2022-05-31T19:00:41Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - How to Motivate Your Dragon: Teaching Goal-Driven Agents to Speak and
Act in Fantasy Worlds [47.7511759322784]
目標を追求するために、他のエージェントと行動し、コミュニケーションするエージェントを創り出そうとしています。
本稿では,大規模言語モデリングとコモンセンス推論に基づく事前学習を取り入れた強化学習システムを提案する。
我々は、保持された人間の専門家によるデモンストレーションを用いてゼロショット評価を行い、エージェントが彼らのモチベーションに関して一貫して行動し、自然に話すことができることを示す。
論文 参考訳(メタデータ) (2020-10-01T21:06:21Z) - I love your chain mail! Making knights smile in a fantasy game world:
Open-domain goal-oriented dialogue agents [69.68400056148336]
我々は、模倣学習したチトチャットモデルに対して強化学習を施した目標指向モデルを訓練する。
両モデルが逆モデルベースラインより優れており,目標を達成するために対話相手と自然に会話できることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。