論文の概要: Shall We Talk: Exploring Spontaneous Collaborations of Competing LLM
Agents
- arxiv url: http://arxiv.org/abs/2402.12327v1
- Date: Mon, 19 Feb 2024 18:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 15:09:11.541225
- Title: Shall We Talk: Exploring Spontaneous Collaborations of Competing LLM
Agents
- Title(参考訳): Shall We Talk: 競合するLLMエージェントの自発的なコラボレーションを探る
- Authors: Zengqing Wu, Shuyuan Zheng, Qianying Liu, Xu Han, Brian Inhyuk Kwon,
Makoto Onizuka, Shaojie Tang, Run Peng, Chuan Xiao
- Abstract要約: 大規模言語モデル(LLM)は,明示的な指示がなければ,自発的に協調関係を確立することができることを示す。
この発見は、人間社会における競争と協力を模倣するLLMエージェントの能力を示すものである。
LLMエージェントは、自発的なコラボレーションを含む、人間の社会的相互作用をモデル化するために使用できることを示唆している。
- 参考スコア(独自算出の注目度): 19.674533284592094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements have shown that agents powered by large language models
(LLMs) possess capabilities to simulate human behaviors and societal dynamics.
However, the potential for LLM agents to spontaneously establish collaborative
relationships in the absence of explicit instructions has not been studied. To
address this gap, we conduct three case studies, revealing that LLM agents are
capable of spontaneously forming collaborations even within competitive
settings. This finding not only demonstrates the capacity of LLM agents to
mimic competition and cooperation in human societies but also validates a
promising vision of computational social science. Specifically, it suggests
that LLM agents could be utilized to model human social interactions, including
those with spontaneous collaborations, thus offering insights into social
phenomena. The source codes for this study are available at
https://github.com/wuzengqing001225/SABM_ShallWeTalk .
- Abstract(参考訳): 近年の進歩は、大規模言語モデル(LLM)を利用したエージェントが人間の行動や社会的ダイナミクスをシミュレートする能力を持っていることを示している。
しかし、明示的な指示がなければ、LLMエージェントが自発的に協調関係を確立できる可能性は研究されていない。
このギャップに対処するために,我々は3つのケーススタディを実施し,llmエージェントが競合環境においても自発的にコラボレーションを形成できることを明らかにした。
この発見は、人間の社会における競争と協力を模倣するLLMエージェントの能力を示すだけでなく、計算社会科学の有望なビジョンを検証する。
具体的には、LLMエージェントは、自発的なコラボレーションを含む人間の社会的相互作用をモデル化し、社会的現象に関する洞察を提供することができることを示唆している。
この研究のソースコードはhttps://github.com/wuzengqing001225/SABM_ShallWeTalk で公開されている。
関連論文リスト
- SOTOPIA-$π$: Interactive Learning of Socially Intelligent Language Agents [73.35393511272791]
本稿では,対話型学習手法であるSOTOPIA-$pi$を提案する。
この手法は,大規模言語モデル(LLM)の評価に基づいて,フィルタリングされた社会的相互作用データに対する行動クローニングと自己強化トレーニングを活用する。
論文 参考訳(メタデータ) (2024-03-13T17:17:48Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Do LLM Agents Exhibit Social Behavior? [6.018288992619851]
本研究では,Large Language Models (LLMs) がいかに社会的相互作用の原理を示すかを検討する。
分析の結果, LLMエージェントは, 多様な社会的行動を示すことが示唆された。
LLMは明らかに公正な好みを示し、正の相反性は弱く、社会学習において人間に比べてより計算的なアプローチを示す。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation
in Avalon Gameplay [57.202649879872624]
Avalonのゲームプレイにシームレスに適応する新しいフレームワークを提案する。
提案するフレームワークの中核は,エージェント間の効率的な通信と対話を可能にするマルチエージェントシステムである。
本研究は,適応的かつインテリジェントなエージェントを生成する上で,我々のフレームワークの有効性を示すものである。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z) - MetaAgents: Simulating Interactions of Human Behaviors for LLM-based
Task-oriented Coordination via Collaborative Generative Agents [27.911816995891726]
我々は,一貫した行動パターンと課題解決能力を備えたLLMベースのエージェントを,協調的生成エージェントとして導入する。
本研究では,人間のような推論能力と専門的スキルを備えた協調生成エージェントを実現する新しい枠組みを提案する。
我々の研究は、タスク指向の社会シミュレーションにおける大規模言語モデルの役割と進化に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-10T10:17:58Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology
View [64.43238868957813]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A
Task-Solving Agent through Multi-Persona Self-Collaboration [123.0167511232417]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Investigating Emergent Goal-Like Behaviour in Large Language Models
Using Experimental Economics [0.0]
社会ジレンマにおける協調的,競争的,利他的,利己的行動の自然言語記述を運用する大規模言語モデル(LLM)の能力について検討する。
我々の焦点は、非ゼロサム相互作用の古典的な例である反復された囚人のジレンマである。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。