論文の概要: Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games
- arxiv url: http://arxiv.org/abs/2506.05309v1
- Date: Thu, 05 Jun 2025 17:53:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.87779
- Title: Time to Talk: LLM Agents for Asynchronous Group Communication in Mafia Games
- Title(参考訳): 時間と講演:マフィアゲームにおける非同期グループコミュニケーションのためのLLMエージェント
- Authors: Niv Eckhaus, Uri Berger, Gabriel Stanovsky,
- Abstract要約: ソーシャルゲームでは、ターンという固有の概念は存在しないため、いつ話すかという決定は参加者の決定の重要な部分を形成する。
適応型非同期 LLM-agent を開発し,何と言ったらよいのかを判断すると同時に,いつ言ったらよいのかを判断する。
分析の結果,会話のタイミング決定におけるエージェントの行動は,メッセージ内容の相違はあるものの,人間のパターンを忠実に反映していることがわかった。
- 参考スコア(独自算出の注目度): 16.080044587384936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs are used predominantly in synchronous communication, where a human user and a model communicate in alternating turns. In contrast, many real-world settings are inherently asynchronous. For example, in group chats, online team meetings, or social games, there is no inherent notion of turns; therefore, the decision of when to speak forms a crucial part of the participant's decision making. In this work, we develop an adaptive asynchronous LLM-agent which, in addition to determining what to say, also decides when to say it. To evaluate our agent, we collect a unique dataset of online Mafia games, including both human participants, as well as our asynchronous agent. Overall, our agent performs on par with human players, both in game performance, as well as in its ability to blend in with the other human players. Our analysis shows that the agent's behavior in deciding when to speak closely mirrors human patterns, although differences emerge in message content. We release all our data and code to support and encourage further research for more realistic asynchronous communication between LLM agents. This work paves the way for integration of LLMs into realistic human group settings, from assistance in team discussions to educational and professional environments where complex social dynamics must be navigated.
- Abstract(参考訳): LLMは主に同期通信で使われ、人間とモデルは交互に交互に通信する。
対照的に、現実世界の設定の多くは本質的に非同期です。
例えば、グループチャット、オンラインチームミーティング、ソーシャルゲームでは、ターンという固有の概念は存在しません。
そこで本研究では,何と言ったらよいのかを判断すると同時に,いつ言ったらよいのかを判断する適応型非同期LLMエージェントを開発した。
エージェントを評価するために、人間の参加者と非同期エージェントの両方を含むオンラインマフィアゲームのユニークなデータセットを収集します。
総合的に、我々のエージェントは、ゲームのパフォーマンスだけでなく、他の人間プレイヤーとブレンドする能力の両方において、人間のプレイヤーと同等に機能する。
分析の結果,会話のタイミング決定におけるエージェントの行動は,メッセージ内容の相違はあるものの,人間のパターンを忠実に反映していることがわかった。
LLMエージェント間のより現実的な非同期通信を支援するために、すべてのデータとコードをリリースし、さらなる研究を奨励します。
この作業は、チームディスカッションの補助から複雑な社会的ダイナミクスをナビゲートしなければならない教育的および専門的な環境まで、LLMを現実的なヒューマングループ設定に統合する方法を舗装する。
関連論文リスト
- Towards Anthropomorphic Conversational AI Part I: A Practical Framework [49.62013440962072]
会話に関わる人間の知性の重要な側面を再現するために設計されたマルチモジュールフレームワークを導入する。
アプローチの第2段階では、これらの会話データは、フィルタリングとラベル付けの後に、強化学習のためのトレーニングおよびテストデータとして機能する。
論文 参考訳(メタデータ) (2025-02-28T03:18:39Z) - SAUCE: Synchronous and Asynchronous User-Customizable Environment for Multi-Agent LLM Interaction [12.948174983519785]
グループシミュレーションのためのカスタマイズ可能なPythonプラットフォームであるSAUCEを紹介する。
我々のプラットフォームは、モデルをインスタンス化し、レスポンスをスケジューリングし、議論履歴を管理し、包括的なアウトプットログを生成する。
SAUCEの新機能は非同期通信機能です。
論文 参考訳(メタデータ) (2024-11-05T18:31:06Z) - Beyond Turn-Based Interfaces: Synchronous LLMs as Full-Duplex Dialogue Agents [12.555910887280199]
フル同期音声対話モデルのための同期LLMを提案する。
実世界の音声対話データをわずか2k時間で有意義で自然な対話を生成するモデルを訓練する。
異なるデータセット上で訓練された2つのエージェント間の相互作用をシミュレートすることにより、モデルがフル同期対話に参加する能力を示す。
論文 参考訳(メタデータ) (2024-09-23T23:01:31Z) - Game Development as Human-LLM Interaction [55.03293214439741]
本稿では,Human-LLMインタラクションを利用したChat Game Engine(ChatGE)を紹介する。
ChatGEは、Human-LLMインタラクションを通じて、自然言語を使ってカスタムゲームを開発することができる。
ポーカーゲームのためのChatGEをケーススタディとして構築し、インタラクションの品質とコードの正確性という2つの観点から評価する。
論文 参考訳(メタデータ) (2024-08-18T07:06:57Z) - A Dialogue Game for Eliciting Balanced Collaboration [64.61707514432533]
本稿では、プレイヤーがゴール状態自体を交渉しなければならない2Dオブジェクト配置ゲームを提案する。
我々は,人間プレイヤーが様々な役割を担っていることを実証的に示し,バランスの取れた協調によってタスクのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2024-06-12T13:35:10Z) - CloChat: Understanding How People Customize, Interact, and Experience
Personas in Large Language Models [15.915071948354466]
CloChatは、大規模言語モデルにおけるエージェントペルソナの簡単かつ正確なカスタマイズをサポートするインターフェースである。
その結果、参加者はカスタマイズされたエージェントと感情結合を形成し、よりダイナミックな対話を行い、相互作用を持続することに興味を示した。
論文 参考訳(メタデータ) (2024-02-23T11:25:17Z) - Long-Horizon Dialogue Understanding for Role Identification in the Game
of Avalon with Large Language Models [6.176709034158014]
Avalon: The Resistanceは、プレイヤーがチームの目的を達成するためにお互いの隠れたアイデンティティを判断しなければならない社会的推論ゲームである。
オンラインテストベッドと20個の慎重に収集・ラベル付けされたゲームを含むデータセットを導入する。
そこで本研究では,LLMが6人のプレイヤー間での知覚的長期会話を利用して,各プレイヤーの目標とモチベーションを決定する能力について論じる。
論文 参考訳(メタデータ) (2023-11-09T20:04:08Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation in Avalon Gameplay [55.12945794835791]
Avalon をテストベッドとして使用し,システムプロンプトを用いてゲームプレイにおける LLM エージェントの誘導を行う。
本稿では,Avalonに適した新しいフレームワークを提案し,効率的なコミュニケーションと対話を容易にするマルチエージェントシステムを提案する。
その結果、適応エージェントの作成におけるフレームワークの有効性を確認し、動的社会的相互作用をナビゲートするLLMベースのエージェントの可能性を提案する。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。