論文の概要: Humanlike Multi-user Agent (HUMA): Designing a Deceptively Human AI Facilitator for Group Chats
- arxiv url: http://arxiv.org/abs/2511.17315v1
- Date: Fri, 21 Nov 2025 15:34:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.078048
- Title: Humanlike Multi-user Agent (HUMA): Designing a Deceptively Human AI Facilitator for Group Chats
- Title(参考訳): ヒューマンライクなマルチユーザエージェント(HUMA):グループチャットのための認知型AIファシリテータの設計
- Authors: Mateusz Jacniacki, Martí Carmona Serrat,
- Abstract要約: HUMA(Humanlike Multi-user Agent)は、AIファシリテータであり、ヒューマンライクな戦略とタイミングを用いて多人数会話に参加する。
我々の結果は、自然なグループチャット設定では、AIファシリテータは人間の品質にマッチするが、人間ではないと識別することは難しいことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Conversational agents built on large language models (LLMs) are becoming increasingly prevalent, yet most systems are designed for one-on-one, turn-based exchanges rather than natural, asynchronous group chats. As AI assistants become widespread throughout digital platforms, from virtual assistants to customer service, developing natural and humanlike interaction patterns seems crucial for maintaining user trust and engagement. We present the Humanlike Multi-user Agent (HUMA), an LLM-based facilitator that participates in multi-party conversations using human-like strategies and timing. HUMA extends prior multi-user chatbot work with an event-driven architecture that handles messages, replies, reactions and introduces realistic response-time simulation. HUMA comprises three components-Router, Action Agent, and Reflection-which together adapt LLMs to group conversation dynamics. We evaluate HUMA in a controlled study with 97 participants in four-person role-play chats, comparing AI and human community managers (CMs). Participants classified CMs as human at near-chance rates in both conditions, indicating they could not reliably distinguish HUMA agents from humans. Subjective experience was comparable across conditions: community-manager effectiveness, social presence, and engagement/satisfaction differed only modestly with small effect sizes. Our results suggest that, in natural group chat settings, an AI facilitator can match human quality while remaining difficult to identify as nonhuman.
- Abstract(参考訳): 大規模言語モデル(LLM)上に構築された会話エージェントは、ますます普及しているが、ほとんどのシステムは、自然な非同期グループチャットではなく、1対1のターンベースの交換用に設計されている。
仮想アシスタントからカスタマーサービスまで、AIアシスタントがデジタルプラットフォーム全体に普及するにつれ、ユーザー信頼とエンゲージメントを維持するためには、自然と人間のようなインタラクションパターンの開発が不可欠である。
HUMA(Humanlike Multi-user Agent)は,人的戦略とタイミングを用いた多人数会話を支援するファシリテータである。
HUMAは、メッセージ、応答、リアクションを処理し、現実的な応答時間シミュレーションを導入するイベント駆動アーキテクチャで、以前のマルチユーザチャットボットの開発を拡張している。
HUMAは3つのコンポーネント(Router、Action Agent、Reflection)から構成され、LLMをグループ会話のダイナミクスに適応させる。
我々は,AIと人間コミュニティマネージャ(CM)を比較した4対1のロールプレイチャットの参加者97名を対象に,HUMAの評価を行った。
参加者はCMを両条件とも近距離速度で人間と分類し、HUMAエージェントと人間を確実に区別できないことを示した。
主観的体験は, コミュニティ・マネージャの有効性, 社会的存在感, エンゲージメント・満足感の両面において, 軽度に差がみられた。
我々の結果は、自然なグループチャット設定では、AIファシリテータは人間の品質にマッチするが、人間ではないと識別することは難しいことを示唆している。
関連論文リスト
- DialogueForge: LLM Simulation of Human-Chatbot Dialogue [7.038493120049631]
人間のチャットボットスタイルでAIシミュレーション会話を生成するためのフレームワークとして,ダイアログForgeを提案する。
生成された会話毎に、DialogueForgeは実際の人間とチャットボットのインタラクションから抽出されたシードプロンプトを使用する。
シミュレーションされた会話の質を評価し、UniEvalとGTEvalの評価プロトコルを用いて異なるモデルを比較した。
論文 参考訳(メタデータ) (2025-07-21T16:08:19Z) - Algorithmic Prompt Generation for Diverse Human-like Teaming and Communication with Large Language Models [14.45823275027527]
品質多様性(QD)最適化は、多様な強化学習(RL)エージェントの振る舞いを生成することができる。
我々はまず、人間-物体実験を通して、人間がこの領域で様々な協調行動とコミュニケーション行動を示すことを示す。
そして、我々の手法は、人間のチームデータからトレンドを効果的に再現し、観察できない振る舞いを捉えることができることを示す。
論文 参考訳(メタデータ) (2025-04-04T23:09:40Z) - Towards Anthropomorphic Conversational AI Part I: A Practical Framework [49.62013440962072]
会話に関わる人間の知性の重要な側面を再現するために設計されたマルチモジュールフレームワークを導入する。
アプローチの第2段階では、これらの会話データは、フィルタリングとラベル付けの後に、強化学習のためのトレーニングおよびテストデータとして機能する。
論文 参考訳(メタデータ) (2025-02-28T03:18:39Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Persona Inconstancy in Multi-Agent LLM Collaboration: Conformity, Confabulation, and Impersonation [16.82101507069166]
マルチエージェントAIシステムは、科学的および実践的な応用において、集合的な意思決定をシミュレートするために使用することができる。
我々は、相互協力や議論に携わるAIエージェントのアンサンブルについて、個人の反応やチャットの書き起こしを分析して検討する。
以上の結果から,複数エージェントによる議論が,多面的な視点を反映する集合的AI決定を支援することが示唆された。
論文 参考訳(メタデータ) (2024-05-06T21:20:35Z) - SpeechAgents: Human-Communication Simulation with Multi-Modal
Multi-Agent Systems [53.94772445896213]
大規模言語モデル(LLM)に基づくマルチエージェントシステムは,人間の社会をシミュレートする上で有望な性能を示した。
本研究では,マルチモーダルLLMに基づくマルチエージェントシステムであるSpeechAgentsを提案する。
論文 参考訳(メタデータ) (2024-01-08T15:01:08Z) - Creating Multimodal Interactive Agents with Imitation and
Self-Supervised Learning [20.02604302565522]
SFからの一般的なビジョンは、ロボットはいつか私たちの物理的空間に住み、世界は私たちのように感じ、肉体労働を補助し、自然言語を通して私たちとコミュニケーションする、ということだ。
本稿では,仮想環境の単純化により人間と自然に対話できる人工エージェントを設計する方法について検討する。
シミュレーションされた世界における人間と人間の相互作用の模倣学習は、自己指導型学習と合わせて、多モーダルな対話型エージェントを作るのに十分であることを示す。
論文 参考訳(メタデータ) (2021-12-07T15:17:27Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。