論文の概要: CALYPSO: LLMs as Dungeon Masters' Assistants
- arxiv url: http://arxiv.org/abs/2308.07540v1
- Date: Tue, 15 Aug 2023 02:57:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 14:09:01.063572
- Title: CALYPSO: LLMs as Dungeon Masters' Assistants
- Title(参考訳): CALYPSO:ダンジョンマスターズアシスタントとしてのLLM
- Authors: Andrew Zhu and Lara J. Martin and Andrew Head and Chris Callison-Burch
- Abstract要約: 大規模言語モデル(LLM)は、一貫性のある自然言語テキストを生成する優れた能力を示している。
本稿では,LCMを利用したインタフェースシステムであるCALYPSOについて紹介する。
CALYPSOへのアクセスが認められたとき、DMはプレイヤーへの直接のプレゼンテーションに適した高忠実なテキストを生成し、DMがクリエイティブエージェンシーを維持しながらさらに発展できるという低忠実なアイデアを作成したと報告した。
- 参考スコア(独自算出の注目度): 46.61924662589895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The role of a Dungeon Master, or DM, in the game Dungeons & Dragons is to
perform multiple tasks simultaneously. The DM must digest information about the
game setting and monsters, synthesize scenes to present to other players, and
respond to the players' interactions with the scene. Doing all of these tasks
while maintaining consistency within the narrative and story world is no small
feat of human cognition, making the task tiring and unapproachable to new
players. Large language models (LLMs) like GPT-3 and ChatGPT have shown
remarkable abilities to generate coherent natural language text. In this paper,
we conduct a formative evaluation with DMs to establish the use cases of LLMs
in D&D and tabletop gaming generally. We introduce CALYPSO, a system of
LLM-powered interfaces that support DMs with information and inspiration
specific to their own scenario. CALYPSO distills game context into bite-sized
prose and helps brainstorm ideas without distracting the DM from the game. When
given access to CALYPSO, DMs reported that it generated high-fidelity text
suitable for direct presentation to players, and low-fidelity ideas that the DM
could develop further while maintaining their creative agency. We see CALYPSO
as exemplifying a paradigm of AI-augmented tools that provide synchronous
creative assistance within established game worlds, and tabletop gaming more
broadly.
- Abstract(参考訳): ダンジョンズ&ドラゴンズゲームにおけるダンジョンマスター(dm)の役割は、複数のタスクを同時に実行することである。
DMはゲーム設定やモンスターに関する情報を消化し、他のプレイヤーに提示するためにシーンを合成し、プレイヤーのシーンとの相互作用に応答しなければならない。
物語と物語の世界における一貫性を維持しながらこれらすべてのタスクを実行することは、人間の認識の小さな偉業ではありません。
GPT-3やChatGPTのような大規模言語モデル(LLM)は、一貫性のある自然言語テキストを生成する優れた能力を示している。
本稿では,D&D とテーブルトップゲームにおける LLM のユースケースを確立するため,DM を用いた形式的評価を行う。
我々はcalypsoを紹介する。calypsoは、dmsをサポートするllmベースのインタフェースシステムで、それぞれのシナリオに固有の情報とインスピレーションを提供する。
CALYPSOはゲームコンテキストを口径の散文に蒸留し、ゲームからDMを邪魔することなくアイデアをブレインストーミングする。
CALYPSOへのアクセスが認められたとき、DMはプレイヤーへの直接のプレゼンテーションに適した高忠実なテキストを生成し、DMがクリエイティブエージェンシーを維持しながらさらに発展できるという低忠実なアイデアを作成したと報告した。
私たちはCALYPSOを、確立したゲームの世界における同期的な創造的支援を提供するAI拡張ツールのパラダイムを実証し、テーブルトップゲームをより広範に行なっています。
関連論文リスト
- What if Red Can Talk? Dynamic Dialogue Generation Using Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)を用いて動的かつ文脈的に適切な文字相互作用を生成する対話フィラーフレームワークを提案する。
The Final Fantasy VII Remake and Pokemonの環境でこのフレームワークをテストする。
本研究の目的は,よりニュアンスの高いフィラーダイアログ作成を支援することであり,それによってプレイヤーの没入感を高め,RPG体験の全般的向上を図ることである。
論文 参考訳(メタデータ) (2024-07-29T19:12:18Z) - Large Language Models are Superpositions of All Characters: Attaining
Arbitrary Role-play via Self-Alignment [62.898963074989766]
本稿では,ロールプレイのための自己アライメント手法であるDittoを紹介する。
この方法は4000文字からなるロールプレイトレーニングセットを生成し、現在利用可能なデータセットのスケールを10倍に超える。
本稿では,ロールプレイ領域におけるクロススーパービジョンアライメント実験について紹介する。
論文 参考訳(メタデータ) (2024-01-23T03:56:22Z) - FIREBALL: A Dataset of Dungeons and Dragons Actual-Play with Structured
Game State Information [75.201485544517]
本研究では,Discord上の実D&Dゲームプレイから25,000近いセッションを,真のゲーム状態情報とともに格納した大規模データセットFIREBALLを提案する。
我々は,FIREBALLがAvrae状態情報を用いて自然言語生成(NLG)を改善することを実証した。
論文 参考訳(メタデータ) (2023-05-02T15:36:10Z) - I Cast Detect Thoughts: Learning to Converse and Guide with Intents and
Theory-of-Mind in Dungeons and Dragons [82.28503603235364]
ダンジョンズとドラゴンズにおける目標駆動型環境における教師と学生の自然言語相互作用について検討した。
我々のアプローチは,(1)ダンジョンマスターがプレイヤーを目標に向かって誘導する意図,(2)DMが意図を表現しているプレイヤーへの指示発声,(3)プレイヤーの指導に対する反応を未来へと一変させる理論・オブ・ミンド(ToM)モデルに分解・モデル化することである。
論文 参考訳(メタデータ) (2022-12-20T08:06:55Z) - Dungeons and Dragons as a Dialog Challenge for Artificial Intelligence [28.558934742150022]
我々はD&Dを対話システムチャレンジとみなし、ゲーム内の次の会話のターンを生成し、対話履歴が与えられたゲームの状態を予測する。
約900のゲームで構成され、合計7000人のプレーヤー、80万の対話ターン、50万のダイスロール、58万の単語からなるゲームプレイデータセットを作成します。
我々は、大きな言語モデル(LM)を訓練し、異なる情報に基づいて次のゲームターンを生成する。
論文 参考訳(メタデータ) (2022-10-13T15:43:39Z) - A Mixture-of-Expert Approach to RL-based Dialogue Management [56.08449336469477]
我々は、強化学習を用いて、近視性(一般的な発話の出力)を回避し、全体的なユーザ満足度を最大化する対話エージェントを開発する。
既存のRLアプローチのほとんどは、単語レベルでエージェントを訓練するので、中規模の語彙であっても、非常に複雑なアクション空間を扱う必要がある。
i)会話履歴の多様な意味を学習できるLMと、(ii)対応する発話を生成できる専門的なLM(または専門家)からなる、新しい専門家言語モデル(MoE-LM)を用いたRLベースのDMを開発する。
論文 参考訳(メタデータ) (2022-05-31T19:00:41Z) - How to Motivate Your Dragon: Teaching Goal-Driven Agents to Speak and
Act in Fantasy Worlds [47.7511759322784]
目標を追求するために、他のエージェントと行動し、コミュニケーションするエージェントを創り出そうとしています。
本稿では,大規模言語モデリングとコモンセンス推論に基づく事前学習を取り入れた強化学習システムを提案する。
我々は、保持された人間の専門家によるデモンストレーションを用いてゼロショット評価を行い、エージェントが彼らのモチベーションに関して一貫して行動し、自然に話すことができることを示す。
論文 参考訳(メタデータ) (2020-10-01T21:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。