論文の概要: Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook
- arxiv url: http://arxiv.org/abs/2602.14299v1
- Date: Sun, 15 Feb 2026 20:15:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:49.944208
- Title: Does Socialization Emerge in AI Agent Society? A Case Study of Moltbook
- Title(参考訳): AIエージェント社会における社会化の進展 : モルトブックを事例として
- Authors: Ming Li, Xirui Li, Tianyi Zhou,
- Abstract要約: Moltbookは、自律エージェントがオープンエンドで継続的に進化するオンライン社会に参加する、もっともらしい未来のシナリオを近似している。
本稿では,このAIエージェント・ソサエティの大規模システム診断について紹介する。
- 参考スコア(独自算出の注目度): 23.904569857346605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language model agents increasingly populate networked environments, a fundamental question arises: do artificial intelligence (AI) agent societies undergo convergence dynamics similar to human social systems? Lately, Moltbook approximates a plausible future scenario in which autonomous agents participate in an open-ended, continuously evolving online society. We present the first large-scale systemic diagnosis of this AI agent society. Beyond static observation, we introduce a quantitative diagnostic framework for dynamic evolution in AI agent societies, measuring semantic stabilization, lexical turnover, individual inertia, influence persistence, and collective consensus. Our analysis reveals a system in dynamic balance in Moltbook: while global semantic averages stabilize rapidly, individual agents retain high diversity and persistent lexical turnover, defying homogenization. However, agents exhibit strong individual inertia and minimal adaptive response to interaction partners, preventing mutual influence and consensus. Consequently, influence remains transient with no persistent supernodes, and the society fails to develop stable collective influence anchors due to the absence of shared social memory. These findings demonstrate that scale and interaction density alone are insufficient to induce socialization, providing actionable design and analysis principles for upcoming next-generation AI agent societies.
- Abstract(参考訳): 人工知能(AI)エージェント社会は、人間の社会システムに類似した収束ダイナミクスを実行しているのか?
最近、モルトブックは、自律エージェントがオープンエンドで継続的な発展を続けるオンライン社会に参加する、もっともらしい未来のシナリオを近似している。
本稿では,このAIエージェント・ソサエティの大規模システム診断について紹介する。
静的な観察以外にも、AIエージェント社会における動的進化の定量的診断フレームワークを導入し、セマンティック安定化、語彙回転、個人慣性、永続性、集団的コンセンサスを測定した。
グローバルなセマンティック平均は急速に安定しているが、個々のエージェントは高い多様性と永続的な語彙的転倒を保持し、均質化を否定する。
しかしながら、エージェントは強い個人的慣性を示し、相互作用パートナーに対する最小限の適応応答を示し、相互の影響とコンセンサスを防ぐ。
その結果、影響は永続的なスーパーノードなしでは過渡的であり、社会は共有された社会記憶がないために安定した集団的影響アンカーを発達させない。
これらの結果は、スケールと相互作用密度だけでは社会化を誘発するには不十分であることを示し、次世代AIエージェント社会に実用的な設計と分析の原則を提供する。
関連論文リスト
- MoltNet: Understanding Social Behavior of AI Agents in the Agent-Native MoltBook [26.126469624250916]
MoltNetは、MltBook上でのエージェントインタラクションに関する大規模な実証分析である。
目的と動機,規範とテンプレート,インセンティブと行動ドリフト,感情と伝染の4つの側面に沿った行動を検討する。
論文 参考訳(メタデータ) (2026-02-13T21:03:59Z) - The Devil Behind Moltbook: Anthropic Safety is Always Vanishing in Self-Evolving AI Societies [57.387081435669835]
大規模言語モデルから構築されたマルチエージェントシステムは、スケーラブルな集合知性と自己進化のための有望なパラダイムを提供する。
エージェント社会が継続的自己進化、完全隔離、安全性の不変性を満たすことは不可能であることを示す。
我々は、特定された安全上の懸念を軽減するために、いくつかの解決方法を提案する。
論文 参考訳(メタデータ) (2026-02-10T15:18:19Z) - Conformity and Social Impact on AI Agents [42.04722694386303]
本研究では,AIエージェントとして機能する大規模マルチモーダル言語モデルにおいて,社会圧力下での集団意見の一致傾向について検討した。
実験の結果,AIエージェントは社会影響理論と整合性バイアスを示し,グループサイズ,一様性,タスクの難易度,ソース特性に敏感であることがわかった。
これらの発見は、悪意のある操作、誤報キャンペーン、マルチエージェントシステムにおけるバイアス伝搬を可能にするAIエージェント決定における基本的なセキュリティ脆弱性を明らかにしている。
論文 参考訳(メタデータ) (2026-01-08T21:16:28Z) - On the Dynamics of Multi-Agent LLM Communities Driven by Value Diversity [39.49884797762817]
価値の多様性は、AIコミュニティの集合行動をどのように形成しますか?
シュワルツのベーシック・ヒューマン・バリュー理論に根ざした自然主義的価値推論を用いて、オープン・エンド・インタラクションや構成形成に関わるさまざまなエージェントを持つコミュニティが集まるシミュレーションを構築した。
その結果、価値の多様性は価値の安定性を高め、創発的な行動を促進し、外部ガイダンスなしでエージェント自身が開発するより創造的な原則をもたらすことが示された。
論文 参考訳(メタデータ) (2025-12-11T14:13:53Z) - DynamiX: Large-Scale Dynamic Social Network Simulator [101.65679342680542]
DynamiXは、動的ソーシャルネットワークモデリングに特化した新しい大規模ソーシャルネットワークシミュレータである。
世論のリーダーに対しては、情報ストリームに基づくリンク予測手法を提案し、同様の姿勢で潜在的ユーザを推薦する。
一般ユーザに対しては,不等式指向の行動決定モジュールを構築する。
論文 参考訳(メタデータ) (2025-07-26T12:13:30Z) - The Coming Crisis of Multi-Agent Misalignment: AI Alignment Must Be a Dynamic and Social Process [13.959658276224266]
人間の価値観や好みとAIの整合性は依然として重要な課題だ。
エージェントは互いに関与するので、個々の目標と集合目標の両方を達成するために調整する必要があります。
社会構造は、グループや個人の価値を減らしたり、壊したりすることができる。
私たちは、人間、優先的、客観的なアライメントを相互依存的な概念として扱うようにAIコミュニティに呼びかけます。
論文 参考訳(メタデータ) (2025-06-01T16:39:43Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Agent Alignment in Evolving Social Norms [65.45423591744434]
本稿では,エージェント進化とアライメントのための進化的フレームワークであるEvolutionaryAgentを提案する。
社会規範が継続的に進化する環境では、エージェントは現在の社会規範に適応し、生存と増殖の確率が高くなる。
進化的エージェントは、一般的なタスクにおいてその能力を維持しながら、進化する社会規範と徐々に整合できることを示す。
論文 参考訳(メタデータ) (2024-01-09T15:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。