論文の概要: MetaAgents: Large Language Model Based Agents for Decision-Making on Teaming
- arxiv url: http://arxiv.org/abs/2310.06500v2
- Date: Fri, 15 Aug 2025 14:18:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:22.731232
- Title: MetaAgents: Large Language Model Based Agents for Decision-Making on Teaming
- Title(参考訳): MetaAgents: チームにおける意思決定のための大規模言語モデルベースエージェント
- Authors: Yuan Li, Lichao Sun, Yixuan Zhang,
- Abstract要約: 大規模言語モデル(LLM)を用いた社会シミュレーションフレームワークであるMetaAgentsを紹介する。
LLMをベースとしたエージェントのチーム構成とスキルマッチング行動を精査するためのケーススタディとして,ジョブフェア環境を構築した。
評価の結果,LLMをベースとしたエージェントが,効率的なチーム開発に合理的な決定を下す上で有能な役割を担っていることが示された。
- 参考スコア(独自算出の注目度): 27.911816995891726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Significant advancements have occurred in the application of Large Language Models (LLMs) for social simulations. Despite this, their abilities to perform teaming in task-oriented social events are underexplored. Such capabilities are crucial if LLMs are to effectively mimic human-like social behaviors and form efficient teams to solve tasks. To bridge this gap, we introduce MetaAgents, a social simulation framework populated with LLM-based agents. MetaAgents facilitates agent engagement in conversations and a series of decision making within social contexts, serving as an appropriate platform for investigating interactions and interpersonal decision-making of agents. In particular, we construct a job fair environment as a case study to scrutinize the team assembly and skill-matching behaviors of LLM-based agents. We take advantage of both quantitative metrics evaluation and qualitative text analysis to assess their teaming abilities at the job fair. Our evaluation demonstrates that LLM-based agents perform competently in making rational decisions to develop efficient teams. However, we also identify limitations that hinder their effectiveness in more complex team assembly tasks. Our work provides valuable insights into the role and evolution of LLMs in task-oriented social simulations.
- Abstract(参考訳): 社会シミュレーションにおけるLarge Language Models (LLMs) の適用において, 顕著な進歩がみられた。
それにもかかわらず、タスク指向のソーシャルイベントでチーム化を行う能力は過小評価されている。
LLMが人間のような社会的行動を効果的に模倣し、タスクを解決する効率的なチームを形成するためには、このような能力が不可欠である。
このギャップを埋めるために,LLMをベースとしたエージェントが混在する社会シミュレーションフレームワークであるMetaAgentsを紹介した。
MetaAgentsは、会話におけるエージェントの関与と、社会的文脈における一連の意思決定を促進し、エージェントの相互作用や対人的意思決定を調査するための適切なプラットフォームとして機能する。
特に,LLMをベースとしたエージェントのチーム組立とスキルマッチング動作を精査するケーススタディとして,ジョブフェア環境を構築した。
我々は,定量的評価と質的テキスト分析の両面を活かして,仕事見本市におけるチームリング能力の評価を行う。
評価の結果,LLMをベースとしたエージェントが,効率的なチーム開発に合理的な決定を下す上で有能な役割を担っていることが示された。
しかし、より複雑なチームアセンブリタスクにおいて、その効果を妨げる制限も特定します。
我々の研究は、タスク指向の社会シミュレーションにおけるLLMの役割と進化に関する貴重な洞察を提供する。
関連論文リスト
- Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - Cross-Task Experiential Learning on LLM-based Multi-Agent Collaboration [63.90193684394165]
マルチエージェント・クロスタスク体験学習(MAEL)は,LSM駆動型エージェントに明示的なクロスタスク学習と経験蓄積を付与する新しいフレームワークである。
経験的学習フェーズでは、タスク解決ワークフローの各ステップの品質を定量化し、その結果の報酬を記憶する。
推論中、エージェントは、各推論ステップの有効性を高めるために、いくつかの例として、高頻度のタスク関連体験を検索する。
論文 参考訳(メタデータ) (2025-05-29T07:24:37Z) - Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [51.452664740963066]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - A Survey on Human-Centric LLMs [11.49752599240738]
大型言語モデル(LLM)は人間の認知と行動をシミュレートすることができる。
この調査は個々のタスクと集合タスクの両方のパフォーマンスに焦点を当てている。
論文 参考訳(メタデータ) (2024-11-20T12:34:44Z) - Static network structure cannot stabilize cooperation among Large Language Model agents [6.868298200380496]
大規模言語モデル(LLM)は、人間の社会的行動のモデル化にますます利用されている。
本研究の目的は,LLMとヒトの協調行動における並列性を明らかにすることである。
論文 参考訳(メタデータ) (2024-11-15T15:52:15Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - Shall We Team Up: Exploring Spontaneous Cooperation of Competing LLM Agents [18.961470450132637]
本稿では、エージェントが文脈に深く関与し、明示的な指示なしに適応的な決定を行う自然現象の重要性を強調する。
我々は,3つの競争シナリオにまたがる自発的な協力を探究し,協力の段階的出現をシミュレートした。
論文 参考訳(メタデータ) (2024-02-19T18:00:53Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Investigating Agency of LLMs in Human-AI Collaboration Tasks [24.562034082480608]
我々は社会認知理論に基づいて、エージェントが対話で表現される特徴の枠組みを構築する。
我々は、83人の人間と人間の協力的なインテリアデザインの会話のデータセットを収集する。
論文 参考訳(メタデータ) (2023-05-22T08:17:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。