論文の概要: Algorithmic Prompt Generation for Diverse Human-like Teaming and Communication with Large Language Models
- arxiv url: http://arxiv.org/abs/2504.03991v1
- Date: Fri, 04 Apr 2025 23:09:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:14:21.981154
- Title: Algorithmic Prompt Generation for Diverse Human-like Teaming and Communication with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた多言語コミュニケーションのためのアルゴリズム・プロンプト生成
- Authors: Siddharth Srikanth, Varun Bhatt, Boshen Zhang, Werner Hager, Charles Michael Lewis, Katia P. Sycara, Aaquib Tabrez, Stefanos Nikolaidis,
- Abstract要約: 品質多様性(QD)最適化は、多様な強化学習(RL)エージェントの振る舞いを生成することができる。
我々はまず、人間-物体実験を通して、人間がこの領域で様々な協調行動とコミュニケーション行動を示すことを示す。
そして、我々の手法は、人間のチームデータからトレンドを効果的に再現し、観察できない振る舞いを捉えることができることを示す。
- 参考スコア(独自算出の注目度): 14.45823275027527
- License:
- Abstract: Understanding how humans collaborate and communicate in teams is essential for improving human-agent teaming and AI-assisted decision-making. However, relying solely on data from large-scale user studies is impractical due to logistical, ethical, and practical constraints, necessitating synthetic models of multiple diverse human behaviors. Recently, agents powered by Large Language Models (LLMs) have been shown to emulate human-like behavior in social settings. But, obtaining a large set of diverse behaviors requires manual effort in the form of designing prompts. On the other hand, Quality Diversity (QD) optimization has been shown to be capable of generating diverse Reinforcement Learning (RL) agent behavior. In this work, we combine QD optimization with LLM-powered agents to iteratively search for prompts that generate diverse team behavior in a long-horizon, multi-step collaborative environment. We first show, through a human-subjects experiment (n=54 participants), that humans exhibit diverse coordination and communication behavior in this domain. We then show that our approach can effectively replicate trends from human teaming data and also capture behaviors that are not easily observed without collecting large amounts of data. Our findings highlight the combination of QD and LLM-powered agents as an effective tool for studying teaming and communication strategies in multi-agent collaboration.
- Abstract(参考訳): 人間とエージェントのチーム作りとAIによる意思決定を改善するためには、チームのコラボレーションやコミュニケーションの仕方を理解することが不可欠だ。
しかし、大規模ユーザー研究のデータにのみ依存することは、多種多様な人間の行動の合成モデルを必要とする、論理的、倫理的、実践的な制約のため、実践的ではない。
近年,Large Language Models (LLMs) を利用したエージェントが,社会環境における人間的な行動のエミュレートを行っている。
しかし、多くの多様な行動を得るためには、手作業でプロンプトを設計する必要がある。
一方、品質多様性(QD)最適化は、多様な強化学習(RL)エージェントの動作を生成することができる。
本研究では,長期的多段階協調環境において,QD最適化とLLMエージェントを併用して,多様なチーム行動を生成するプロンプトを反復的に探索する。
我々はまず,人・物体実験(n=54人)を通して,この領域において人間が多様な協調行動とコミュニケーション行動を示すことを示す。
そして,本手法は,人間のチームデータからの傾向を効果的に再現し,大量のデータを集めることなく容易に観察できない行動を捉えることができることを示す。
本研究は,複数エージェントの協調作業において,協調学習とコミュニケーション戦略を効果的に研究するためのQDエージェントとLLMエージェントの組み合わせを強調した。
関連論文リスト
- Enabling Multi-Robot Collaboration from Single-Human Guidance [5.016558275355615]
本研究では,人間一人の専門知識を活用することで,マルチエージェントシステムにおける協調行動の効率的な学習方法を提案する。
本研究では,人間の操作者が短時間に制御エージェントを動的に切り替えることによって,効果的に協調学習ができることを示す。
実験の結果,本手法は,人的指導を40分で最大58%向上させることができた。
論文 参考訳(メタデータ) (2024-09-30T00:02:56Z) - Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - CooHOI: Learning Cooperative Human-Object Interaction with Manipulated Object Dynamics [44.30880626337739]
CooHOIはマルチヒューマノイド物体輸送問題の解決を目的としたフレームワークである。
単一のヒューマノイドキャラクタは、人間の動きの先行から模倣学習を通じてオブジェクトと対話することを学ぶ。
そして、ヒューマノイドは、操作対象の共有ダイナミクスを考慮し、他人と協調することを学ぶ。
論文 参考訳(メタデータ) (2024-06-20T17:59:22Z) - Scaling Large Language Model-based Multi-Agent Collaboration [72.8998796426346]
近年の大規模言語モデル駆動型自律エージェントのブレークスルーにより、複数エージェントのコラボレーションが集団的推論を通じて各個人を上回ることが判明している。
本研究は、協調剤の連続的な添加が同様の利益をもたらすかどうかを考察する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Efficient Human-AI Coordination via Preparatory Language-based
Convention [17.840956842806975]
既存の人間とAIの調整方法は、エージェントに様々なポリシーや実際の人間のデータに適合した人間のモデルと調整するように訓練するのが一般的である。
我々は、人間とAIの両方を効果的に導くアクションプランを開発するために、大規模言語モデル(LLM)を採用することを提案する。
提案手法は,ヒトの嗜好との整合性が向上し,平均性能が15%向上した。
論文 参考訳(メタデータ) (2023-11-01T10:18:23Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。