論文の概要: Shall We Talk: Exploring Spontaneous Collaborations of Competing LLM
Agents
- arxiv url: http://arxiv.org/abs/2402.12327v1
- Date: Mon, 19 Feb 2024 18:00:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 15:09:11.541225
- Title: Shall We Talk: Exploring Spontaneous Collaborations of Competing LLM
Agents
- Title(参考訳): Shall We Talk: 競合するLLMエージェントの自発的なコラボレーションを探る
- Authors: Zengqing Wu, Shuyuan Zheng, Qianying Liu, Xu Han, Brian Inhyuk Kwon,
Makoto Onizuka, Shaojie Tang, Run Peng, Chuan Xiao
- Abstract要約: 大規模言語モデル(LLM)は,明示的な指示がなければ,自発的に協調関係を確立することができることを示す。
この発見は、人間社会における競争と協力を模倣するLLMエージェントの能力を示すものである。
LLMエージェントは、自発的なコラボレーションを含む、人間の社会的相互作用をモデル化するために使用できることを示唆している。
- 参考スコア(独自算出の注目度): 19.674533284592094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements have shown that agents powered by large language models
(LLMs) possess capabilities to simulate human behaviors and societal dynamics.
However, the potential for LLM agents to spontaneously establish collaborative
relationships in the absence of explicit instructions has not been studied. To
address this gap, we conduct three case studies, revealing that LLM agents are
capable of spontaneously forming collaborations even within competitive
settings. This finding not only demonstrates the capacity of LLM agents to
mimic competition and cooperation in human societies but also validates a
promising vision of computational social science. Specifically, it suggests
that LLM agents could be utilized to model human social interactions, including
those with spontaneous collaborations, thus offering insights into social
phenomena. The source codes for this study are available at
https://github.com/wuzengqing001225/SABM_ShallWeTalk .
- Abstract(参考訳): 近年の進歩は、大規模言語モデル(LLM)を利用したエージェントが人間の行動や社会的ダイナミクスをシミュレートする能力を持っていることを示している。
しかし、明示的な指示がなければ、LLMエージェントが自発的に協調関係を確立できる可能性は研究されていない。
このギャップに対処するために,我々は3つのケーススタディを実施し,llmエージェントが競合環境においても自発的にコラボレーションを形成できることを明らかにした。
この発見は、人間の社会における競争と協力を模倣するLLMエージェントの能力を示すだけでなく、計算社会科学の有望なビジョンを検証する。
具体的には、LLMエージェントは、自発的なコラボレーションを含む人間の社会的相互作用をモデル化し、社会的現象に関する洞察を提供することができることを示唆している。
この研究のソースコードはhttps://github.com/wuzengqing001225/SABM_ShallWeTalk で公開されている。
関連論文リスト
- PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - LLM-Augmented Agent-Based Modelling for Social Simulations: Challenges and Opportunities [0.0]
大きな言語モデルとエージェントベースのシミュレーションを統合することは、複雑な社会システムを理解するための変換可能性を提供する。
LLM強化社会シミュレーションを体系的に開発するためのアーキテクチャと手法について検討する。
LLMとエージェントベースのシミュレーションを統合することは、研究者や科学者に強力なツールセットを提供すると結論付けている。
論文 参考訳(メタデータ) (2024-05-08T08:57:54Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation [50.01551945190676]
社会ロボットナビゲーションは、日常生活の様々な状況において有用であるが、安全な人間とロボットの相互作用と効率的な軌道計画が必要である。
本稿では, 動的に進化する関係構造を明示的に推論した系統的関係推論手法を提案する。
マルチエージェント軌道予測とソーシャルロボットナビゲーションの有効性を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:58:22Z) - MetaAgents: Simulating Interactions of Human Behaviors for LLM-based
Task-oriented Coordination via Collaborative Generative Agents [27.911816995891726]
我々は,一貫した行動パターンと課題解決能力を備えたLLMベースのエージェントを,協調的生成エージェントとして導入する。
本研究では,人間のような推論能力と専門的スキルを備えた協調生成エージェントを実現する新しい枠組みを提案する。
我々の研究は、タスク指向の社会シミュレーションにおける大規模言語モデルの役割と進化に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-10T10:17:58Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。