論文の概要: Emergence of human-like polarization among large language model agents
- arxiv url: http://arxiv.org/abs/2501.05171v1
- Date: Thu, 09 Jan 2025 11:45:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 13:59:57.172550
- Title: Emergence of human-like polarization among large language model agents
- Title(参考訳): 大規模言語モデルエージェントにおけるヒト様分極の出現
- Authors: Jinghua Piao, Zhihong Lu, Chen Gao, Fengli Xu, Fernando P. Santos, Yong Li, James Evans,
- Abstract要約: 我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
- 参考スコア(独自算出の注目度): 61.622596148368906
- License:
- Abstract: Rapid advances in large language models (LLMs) have empowered autonomous agents to establish social relationships, communicate, and form shared and diverging opinions on political issues. Our understanding of their collective behaviours and underlying mechanisms remains incomplete, however, posing unexpected risks to human society. In this paper, we simulate a networked system involving thousands of large language model agents, discovering their social interactions, guided through LLM conversation, result in human-like polarization. We discover that these agents spontaneously develop their own social network with human-like properties, including homophilic clustering, but also shape their collective opinions through mechanisms observed in the real world, including the echo chamber effect. Similarities between humans and LLM agents -- encompassing behaviours, mechanisms, and emergent phenomena -- raise concerns about their capacity to amplify societal polarization, but also hold the potential to serve as a valuable testbed for identifying plausible strategies to mitigate polarization and its consequences.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩は、自律的なエージェントに社会的関係を確立し、コミュニケーションし、共有し、政治的問題について意見を交換する権限を与えている。
しかし、これらの集団行動とそのメカニズムの理解は、人間の社会に予期せぬリスクを生じさせることなく、いまだに不完全である。
本稿では,何千もの大規模言語モデルエージェントが関与するネットワークシステムをシミュレーションし,LLM会話を通して導かれる社会的相互作用を発見し,人間のような偏光をもたらす。
これらのエージェントは, 好気性クラスタリングを含む, 人為的な特性を持つ独自のソーシャルネットワークを自発的に構築すると同時に, エコーチャンバー効果を含む現実世界で観察されるメカニズムを通じて, 集団的意見を形成する。
人間とLLMエージェント(行動、メカニズム、創発的な現象を含む)の類似性は、社会的分極を増幅する能力に関する懸念を提起する一方で、分極を緩和するための有効な戦略と結果を特定するための貴重なテストベッドとして機能する可能性も持っている。
関連論文リスト
- AgentSociety: Large-Scale Simulation of LLM-Driven Generative Agents Advances Understanding of Human Behaviors and Society [32.849311155921264]
本稿では,現実的な社会環境を統合した大規模社会シミュレータであるAgentSocietyを提案する。
提案したシミュレーターに基づいて,500万件のインタラクションをシミュレートし,10万件以上のエージェントの社会生活を生成する。
偏極、炎症性メッセージの普及、普遍的ベーシック・インカム・ポリシーの効果、ハリケーンなどの外部ショックの影響の4つに焦点をあてる。
論文 参考訳(メタデータ) (2025-02-12T15:27:07Z) - TwinMarket: A Scalable Behavioral and Social Simulation for Financial Markets [24.354300029071418]
大規模言語モデル(LLM)エージェントは人間の振る舞いをモデル化するためのシミュレーションツールとして注目を集めている。
社会経済システムのシミュレートにLLMを活用する新しいマルチエージェントフレームワークであるTwinMarketを紹介した。
我々のアプローチは、個人の意思決定と集団社会経済パターンの間の複雑な相互作用に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-03T16:39:48Z) - LMAgent: A Large-scale Multimodal Agents Society for Multi-user Simulation [66.52371505566815]
大規模言語モデル(LLM)ベースのAIエージェントは、人間のような知性を達成するために、大きな進歩を遂げた。
LMAgentは,マルチモーダル LLM に基づく大規模かつマルチモーダルなエージェント社会である。
LMAgentでは、友人とチャットする以外に、エージェントは自動で商品を閲覧、購入、レビューしたり、ライブストリーミングのeコマースを行うこともできる。
論文 参考訳(メタデータ) (2024-12-12T12:47:09Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Spontaneous Emergence of Agent Individuality through Social Interactions in LLM-Based Communities [0.0]
本稿では,Large Language Model (LLM) ベースのエージェントを用いて,ゼロからエージェントが出現することを検討する。
このマルチエージェントシミュレーションを解析することにより、社会的規範、協力、性格特性が自然に出現する方法について、貴重な新しい知見を報告する。
論文 参考訳(メタデータ) (2024-11-05T16:49:33Z) - The Dynamics of Social Conventions in LLM populations: Spontaneous Emergence, Collective Biases and Tipping Points [0.0]
シミュレーション対話を用いたLarge Language Model (LLM) エージェントの集団内におけるコンベンションのダイナミクスについて検討する。
グローバルに受け入れられる社会慣行は,LLM間の局所的な相互作用から自然に生じうることを示す。
献身的なLLMのマイノリティグループは、新しい社会慣習を確立することで社会変革を促進することができる。
論文 参考訳(メタデータ) (2024-10-11T16:16:38Z) - I Want to Break Free! Persuasion and Anti-Social Behavior of LLMs in Multi-Agent Settings with Social Hierarchy [13.68625980741047]
本研究では,Large Language Model (LLM) に基づくエージェントの相互作用パターンについて,厳密な社会的階層を特徴とする文脈で検討する。
本研究では,警備員と囚人エージェントが関与するシミュレートシナリオにおける説得と反社会的行動の2つの現象について検討した。
論文 参考訳(メタデータ) (2024-10-09T17:45:47Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Exploring Collaboration Mechanisms for LLM Agents: A Social Psychology View [60.80731090755224]
本稿では,理論的洞察を用いた実用実験により,現代NLPシステム間の協調機構を解明する。
我々は, LLMエージェントからなる4つの独特な社会をつくり, それぞれのエージェントは, 特定の特性(容易性, 過信性)によって特徴づけられ, 異なる思考パターン(議論, ふりかえり)と協調する。
以上の結果から, LLMエージェントは, 社会心理学理論を反映した, 適合性やコンセンサスリーディングといった人間的な社会的行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T15:05:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。