論文の概要: I Cast Detect Thoughts: Learning to Converse and Guide with Intents and
Theory-of-Mind in Dungeons and Dragons
- arxiv url: http://arxiv.org/abs/2212.10060v2
- Date: Tue, 30 May 2023 23:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 23:14:07.863126
- Title: I Cast Detect Thoughts: Learning to Converse and Guide with Intents and
Theory-of-Mind in Dungeons and Dragons
- Title(参考訳): I Cast Detectings: Learning to Converses and Guide with Intents and-of-Mind in Dungeons and Dragons
- Authors: Pei Zhou, Andrew Zhu, Jennifer Hu, Jay Pujara, Xiang Ren, Chris
Callison-Burch, Yejin Choi, Prithviraj Ammanabrolu
- Abstract要約: ダンジョンズとドラゴンズにおける目標駆動型環境における教師と学生の自然言語相互作用について検討した。
我々のアプローチは,(1)ダンジョンマスターがプレイヤーを目標に向かって誘導する意図,(2)DMが意図を表現しているプレイヤーへの指示発声,(3)プレイヤーの指導に対する反応を未来へと一変させる理論・オブ・ミンド(ToM)モデルに分解・モデル化することである。
- 参考スコア(独自算出の注目度): 82.28503603235364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel task, G4C, to study teacher-student natural language
interactions in a goal-driven and grounded environment. Dungeons and Dragons
(D&D), a role-playing game, provides an ideal setting to investigate such
interactions. Here, the Dungeon Master (DM), i.e., the teacher, guides the
actions of several players -- students, each with their own personas and
abilities -- to achieve shared goals grounded in a fantasy world. Our approach
is to decompose and model these interactions into (1) the DM's intent to guide
players toward a given goal; (2) the DM's guidance utterance to the players
expressing this intent; and (3) a theory-of-mind (ToM) model that anticipates
the players' reaction to the guidance one turn into the future. We develop a
novel reinforcement learning (RL) method for training a DM that generates
guidance for players by rewarding utterances where the intent matches the
ToM-anticipated player actions. Human and automated evaluations show that a DM
trained to explicitly model intents and incorporate ToM of the players using RL
generates better-quality guidance that is 3x more likely to fulfill the DM's
intent than a vanilla natural language generation (NLG) approach.
- Abstract(参考訳): 本稿では,教師と生徒の自然言語相互作用を目標駆動環境と接地環境において学習するための新しいタスクg4cを提案する。
ダンジョンズ&ドラゴンズ(d&d)はロールプレイングゲームであり、そのような相互作用を調査するのに理想的な設定を提供する。
ここで、ダンジョンマスター(dungeon master、dm)は、ファンタジーの世界に根ざした共通の目標を達成するために、数人のプレイヤー(それぞれが個性と能力を持つ学生)の行動を指導する。
我々のアプローチは,(1)プレイヤーを目標に向かって誘導するDMの意図,(2)その意図を表現しているプレイヤーへのDMの指示発声,(3)プレイヤーの指導に対する反応を予測して未来へと導くToM(理論オブミンド)モデルに分解・モデル化することである。
本研究では,ToMが予測する選手行動と一致した発話に報奨を与えることで,選手の指導を生成するDMを訓練するための新しい強化学習法(RL)を開発した。
人間と自動評価は、DMが意図を明示的にモデル化し、RLを使用するプレイヤーのToMを組み込むことで、バニラ自然言語生成(NLG)アプローチよりもDMの意図を満たす可能性が3倍高い良質なガイダンスを生成することを示している。
関連論文リスト
- Attacks and Defenses for Generative Diffusion Models: A Comprehensive Survey [5.300811350105823]
拡散モデル (DM) は様々な生成タスクにおいて最先端の性能を達成した。
近年の研究では、DMは幅広い攻撃を受けやすいことが示されている。
論文 参考訳(メタデータ) (2024-08-06T18:52:17Z) - Skill Check: Some Considerations on the Evaluation of Gamemastering
Models for Role-playing Games [0.5803309695504829]
ロールプレイングゲームにおいて、ゲームマスター(ゲームマスター、英: Game Master、GM)は、プレイヤーが直面している課題をデザインし、アクションの結果を物語るゲームマスターである。
本稿では,対話型ストーリテリングと自然言語処理の観点から,GMをモデル化する上での課題について論じる。
これらの課題に続き、このような対話システムを評価するための3つのテストカテゴリを提案し、ChatGPT、Bard、OpenAssistantをアウト・オブ・ボックスGMとしてテストする。
論文 参考訳(メタデータ) (2023-09-24T17:19:36Z) - CALYPSO: LLMs as Dungeon Masters' Assistants [46.61924662589895]
大規模言語モデル(LLM)は、一貫性のある自然言語テキストを生成する優れた能力を示している。
本稿では,LCMを利用したインタフェースシステムであるCALYPSOについて紹介する。
CALYPSOへのアクセスが認められたとき、DMはプレイヤーへの直接のプレゼンテーションに適した高忠実なテキストを生成し、DMがクリエイティブエージェンシーを維持しながらさらに発展できるという低忠実なアイデアを作成したと報告した。
論文 参考訳(メタデータ) (2023-08-15T02:57:00Z) - Dungeons and Dragons as a Dialog Challenge for Artificial Intelligence [28.558934742150022]
我々はD&Dを対話システムチャレンジとみなし、ゲーム内の次の会話のターンを生成し、対話履歴が与えられたゲームの状態を予測する。
約900のゲームで構成され、合計7000人のプレーヤー、80万の対話ターン、50万のダイスロール、58万の単語からなるゲームプレイデータセットを作成します。
我々は、大きな言語モデル(LM)を訓練し、異なる情報に基づいて次のゲームターンを生成する。
論文 参考訳(メタデータ) (2022-10-13T15:43:39Z) - A Mixture-of-Expert Approach to RL-based Dialogue Management [56.08449336469477]
我々は、強化学習を用いて、近視性(一般的な発話の出力)を回避し、全体的なユーザ満足度を最大化する対話エージェントを開発する。
既存のRLアプローチのほとんどは、単語レベルでエージェントを訓練するので、中規模の語彙であっても、非常に複雑なアクション空間を扱う必要がある。
i)会話履歴の多様な意味を学習できるLMと、(ii)対応する発話を生成できる専門的なLM(または専門家)からなる、新しい専門家言語モデル(MoE-LM)を用いたRLベースのDMを開発する。
論文 参考訳(メタデータ) (2022-05-31T19:00:41Z) - DeepCrawl: Deep Reinforcement Learning for Turn-based Strategy Games [137.86426963572214]
Deep CrawlはiOSとAndroid用の完全にプレイ可能なRogueライクなプロトタイプで、すべてのエージェントがDeep Reinforcement Learning (DRL)を使用してトレーニングされたポリシーネットワークによって制御される。
本研究の目的は、近年のDRLの進歩が、ビデオゲームにおける非プレイヤーキャラクターに対する説得力のある行動モデルの開発に有効であるかどうかを理解することである。
論文 参考訳(メタデータ) (2020-12-03T13:53:29Z) - How to Motivate Your Dragon: Teaching Goal-Driven Agents to Speak and
Act in Fantasy Worlds [47.7511759322784]
目標を追求するために、他のエージェントと行動し、コミュニケーションするエージェントを創り出そうとしています。
本稿では,大規模言語モデリングとコモンセンス推論に基づく事前学習を取り入れた強化学習システムを提案する。
我々は、保持された人間の専門家によるデモンストレーションを用いてゼロショット評価を行い、エージェントが彼らのモチベーションに関して一貫して行動し、自然に話すことができることを示す。
論文 参考訳(メタデータ) (2020-10-01T21:06:21Z) - I love your chain mail! Making knights smile in a fantasy game world:
Open-domain goal-oriented dialogue agents [69.68400056148336]
我々は、模倣学習したチトチャットモデルに対して強化学習を施した目標指向モデルを訓練する。
両モデルが逆モデルベースラインより優れており,目標を達成するために対話相手と自然に会話できることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。