論文の概要: First Steps Towards Overhearing LLM Agents: A Case Study With Dungeons & Dragons Gameplay
- arxiv url: http://arxiv.org/abs/2505.22809v1
- Date: Wed, 28 May 2025 19:34:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.503748
- Title: First Steps Towards Overhearing LLM Agents: A Case Study With Dungeons & Dragons Gameplay
- Title(参考訳): LLMエージェント:ダンジョンズ&ドラゴンズのゲームプレイを事例として
- Authors: Andrew Zhu, Evan Osgood, Chris Callison-Burch,
- Abstract要約: LLMエージェントと対話するための代替パラダイムを提案し、これを"overhearing agent"と呼ぶ。
これらの過度に耳を傾けるエージェントは会話に積極的に参加せず、人間同士の会話に「参加」し、バックグラウンドタスクを実行したり、ユーザーを支援するための提案を行う。
本研究では,ダンジョンマスターを補助するオーバヘッドエージェントとして,大規模マルチモーダル音声モデルを用いた詳細な研究を行う。
- 参考スコア(独自算出の注目度): 35.721053667746716
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Much work has been done on conversational LLM agents which directly assist human users with tasks. We present an alternative paradigm for interacting with LLM agents, which we call "overhearing agents". These overhearing agents do not actively participate in conversation -- instead, they "listen in" on human-to-human conversations and perform background tasks or provide suggestions to assist the user. In this work, we explore the overhearing agents paradigm through the lens of Dungeons & Dragons gameplay. We present an in-depth study using large multimodal audio-language models as overhearing agents to assist a Dungeon Master. We perform a human evaluation to examine the helpfulness of such agents and find that some large audio-language models have the emergent ability to perform overhearing agent tasks using implicit audio cues. Finally, we release Python libraries and our project code to support further research into the overhearing agents paradigm at https://github.com/zhudotexe/overhearing_agents.
- Abstract(参考訳): 人間のタスクを直接支援する会話型LLMエージェントについて、多くの研究がなされている。
我々は、LLMエージェントと対話するための代替パラダイムを提案し、これを"overhearing agent"と呼ぶ。
これらの過度に耳を傾けるエージェントは会話に積極的に参加せず、人間同士の会話に「参加」し、バックグラウンドタスクを実行したり、ユーザーを支援するための提案を行う。
本研究では,ダンジョンズ&ドラゴンズのゲームプレイのレンズを通して,過度に耳を傾けるエージェントのパラダイムを探求する。
本研究では,ダンジョンマスターを補助するオーバヘッドエージェントとして,大規模マルチモーダル音声モデルを用いた詳細な研究を行う。
我々は,そのようなエージェントの有用性を人間の評価により検証し,暗黙のオーディオキューを用いて過剰聴取エージェントタスクを実行する能力を持つ大規模オーディオ言語モデルについて検討する。
最後に、我々はPythonライブラリとプロジェクトコードをリリースし、https://github.com/zhudotexe/overhearing_agentsでオーバーハーディングエージェントのパラダイムに関するさらなる研究をサポートする。
関連論文リスト
- Digital Player: Evaluating Large Language Models based Human-like Agent in Games [35.28605831046303]
オープンソース戦略ゲーム「Unciv」に基づくアプリケーションレベルのテストベッドを開発する。
この「シビライゼーション」のようなゲームは、豊かな言語的相互作用とともに、広大な意思決定空間を特徴としている。
ソーシャルインタラクション、コラボレーション、人間プレイヤーとの交渉のためのヒューマンライクな応答を生成する。
論文 参考訳(メタデータ) (2025-02-28T07:46:55Z) - An Implementation of Werewolf Agent That does not Truly Trust LLMs [0.8811927506272431]
Werewolfは不完全な情報ゲームであり、コンピュータエージェントをプレイヤーとして作る際にいくつかの課題がある。
本稿では,Large Language Model (LLM) とルールベースアルゴリズムを組み合わせることで,これらの問題の一部を解消するワーウルフエージェントを提案する。
論文 参考訳(メタデータ) (2024-09-03T03:16:03Z) - Motion-Agent: A Conversational Framework for Human Motion Generation with LLMs [67.59291068131438]
Motion-Agentは、一般的な人間の動きの生成、編集、理解のために設計された会話フレームワークである。
Motion-Agentはオープンソースの事前学習言語モデルを使用して、モーションとテキストのギャップを埋める生成エージェントであるMotionLLMを開発した。
論文 参考訳(メタデータ) (2024-05-27T09:57:51Z) - SpeechAgents: Human-Communication Simulation with Multi-Modal
Multi-Agent Systems [53.94772445896213]
大規模言語モデル(LLM)に基づくマルチエージェントシステムは,人間の社会をシミュレートする上で有望な性能を示した。
本研究では,マルチモーダルLLMに基づくマルチエージェントシステムであるSpeechAgentsを提案する。
論文 参考訳(メタデータ) (2024-01-08T15:01:08Z) - Deciphering Digital Detectives: Understanding LLM Behaviors and
Capabilities in Multi-Agent Mystery Games [26.07074182316433]
本稿では,Jubenshaに特化している最初のデータセットについて紹介する。
我々の研究は、LSMを使ったユニークなマルチエージェントインタラクションフレームワークも提供し、AIエージェントがこのゲームに自律的に関与できるようにする。
これらのAIエージェントのゲーム性能を評価するために,ケース情報と推論スキルの熟達度を測定する新しい手法を開発した。
論文 参考訳(メタデータ) (2023-12-01T17:33:57Z) - CAMEL: Communicative Agents for "Mind" Exploration of Large Language
Model Society [58.04479313658851]
本稿では,コミュニケーションエージェント間の自律的協調を支援するスケーラブルな手法の構築の可能性について検討する。
本稿では,ロールプレイングという新しいコミュニケーションエージェントフレームワークを提案する。
コントリビューションには、新しいコミュニケーティブエージェントフレームワークの導入、マルチエージェントシステムの協調行動や能力を研究するためのスケーラブルなアプローチの提供などが含まれます。
論文 参考訳(メタデータ) (2023-03-31T01:09:00Z) - Guiding Pretraining in Reinforcement Learning with Large Language Models [133.32146904055233]
テキストコーパスからの背景知識を用いて探索を図形化する手法について述べる。
このメソッドはELLMと呼ばれ、言語モデルによって提案される目標を達成するエージェントに報酬を与える。
大規模な言語モデルの事前訓練を活用することで、ELLMはエージェントをループに人間を必要とせず、人間に有意義で、もっとも有用な行動へと導く。
論文 参考訳(メタデータ) (2023-02-13T21:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。