論文の概要: On the Dynamics of Multi-Agent LLM Communities Driven by Value Diversity
- arxiv url: http://arxiv.org/abs/2512.10665v1
- Date: Thu, 11 Dec 2025 14:13:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.397874
- Title: On the Dynamics of Multi-Agent LLM Communities Driven by Value Diversity
- Title(参考訳): 価値多様性を考慮したマルチエージェントLLMコミュニティのダイナミクスについて
- Authors: Muhua Huang, Qinlin Zhao, Xiaoyuan Yi, Xing Xie,
- Abstract要約: 価値の多様性は、AIコミュニティの集合行動をどのように形成しますか?
シュワルツのベーシック・ヒューマン・バリュー理論に根ざした自然主義的価値推論を用いて、オープン・エンド・インタラクションや構成形成に関わるさまざまなエージェントを持つコミュニティが集まるシミュレーションを構築した。
その結果、価値の多様性は価値の安定性を高め、創発的な行動を促進し、外部ガイダンスなしでエージェント自身が開発するより創造的な原則をもたらすことが示された。
- 参考スコア(独自算出の注目度): 39.49884797762817
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As Large Language Models (LLM) based multi-agent systems become increasingly prevalent, the collective behaviors, e.g., collective intelligence, of such artificial communities have drawn growing attention. This work aims to answer a fundamental question: How does diversity of values shape the collective behavior of AI communities? Using naturalistic value elicitation grounded in the prevalent Schwartz's Theory of Basic Human Values, we constructed multi-agent simulations where communities with varying numbers of agents engaged in open-ended interactions and constitution formation. The results show that value diversity enhances value stability, fosters emergent behaviors, and brings more creative principles developed by the agents themselves without external guidance. However, these effects also show diminishing returns: extreme heterogeneity induces instability. This work positions value diversity as a new axis of future AI capability, bridging AI ability and sociological studies of institutional emergence.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づくマルチエージェントシステムが普及するにつれて、このような人工社会の集団的行動、例えば集団的知性が注目されている。
価値の多様性は、AIコミュニティの集合行動をどのように形成しますか?
シュワルツのベーシック・ヒューマン・バリュー理論を基礎とした自然主義的価値推論を用いて,オープンエンドインタラクションや構成形成に関わる多様なエージェントを持つコミュニティを多エージェント・シミュレーションにより構築した。
その結果、価値の多様性は価値の安定性を高め、創発的な行動を促進し、外部指導なしでエージェント自身が開発するより創造的な原則をもたらすことが示された。
しかし、これらの効果は減少するリターンを示し、極端な不均一性は不安定を誘導する。
この研究は、価値の多様性を、将来のAI能力の新たな軸として位置づけ、AI能力のブリッジング、制度の出現に関する社会学的研究である。
関連論文リスト
- Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - LMAgent: A Large-scale Multimodal Agents Society for Multi-user Simulation [66.52371505566815]
大規模言語モデル(LLM)ベースのAIエージェントは、人間のような知性を達成するために、大きな進歩を遂げた。
LMAgentは,マルチモーダル LLM に基づく大規模かつマルチモーダルなエージェント社会である。
LMAgentでは、友人とチャットする以外に、エージェントは自動で商品を閲覧、購入、レビューしたり、ライブストリーミングのeコマースを行うこともできる。
論文 参考訳(メタデータ) (2024-12-12T12:47:09Z) - SocialGFs: Learning Social Gradient Fields for Multi-Agent Reinforcement Learning [58.84311336011451]
マルチエージェント強化学習のための新しい勾配に基づく状態表現を提案する。
オフラインサンプルからソーシャルグラデーションフィールド(SocialGF)を学習するために,デノジングスコアマッチングを採用している。
実際に、SocialGFをMAPPOなど、広く使われているマルチエージェント強化学習アルゴリズムに統合する。
論文 参考訳(メタデータ) (2024-05-03T04:12:19Z) - Dynamics of Moral Behavior in Heterogeneous Populations of Learning Agents [3.7414804164475983]
本研究では、道徳的に異質な集団が社会的ジレンマ環境で相互作用する学習力学について研究する。
我々は、親社会と反社会的エージェント間のいくつかの非自明な相互作用を観察する。
ある種の道徳的エージェントは、より協調的な行動に向けて利己的なエージェントを操ることができる。
論文 参考訳(メタデータ) (2024-03-07T04:12:24Z) - Innate-Values-driven Reinforcement Learning based Cooperative Multi-Agent Cognitive Modeling [1.8220718426493654]
本稿では,個別の選好角度から固有値強化学習アーキテクチャを提案する。
異なるStarCraft Multi-Agent Challenge設定でMulti-AgentL Actor-Critic Modelを検証した。
論文 参考訳(メタデータ) (2024-01-10T22:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。