論文の概要: Evolving Collective Cognition in Human-Agent Hybrid Societies: How Agents Form Stances and Boundaries
- arxiv url: http://arxiv.org/abs/2508.17366v1
- Date: Sun, 24 Aug 2025 13:50:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.489843
- Title: Evolving Collective Cognition in Human-Agent Hybrid Societies: How Agents Form Stances and Boundaries
- Title(参考訳): ハイブリッド社会における集団認知の進化 : エージェントがスタンスや境界をどう形成するか
- Authors: Hanzhong Zhang, Muhua Huang, Jindong Wang,
- Abstract要約: 本研究では,人間とエージェントの混成社会における集団姿勢の分化と社会的境界形成の出現について検討する。
エージェントは事前に設定されたアイデンティティから独立して内在的なスタンスを示す。
以上の結果から,プリセットされたアイデンティティがエージェントの社会的構造を厳格に決定しないことが示唆された。
- 参考スコア(独自算出の注目度): 12.68373270583966
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models have been widely used to simulate credible human social behaviors. However, it remains unclear whether these models can demonstrate stable capacities for stance formation and identity negotiation in complex interactions, as well as how they respond to human interventions. We propose a computational multi-agent society experiment framework that integrates generative agent-based modeling with virtual ethnographic methods to investigate how group stance differentiation and social boundary formation emerge in human-agent hybrid societies. Across three studies, we find that agents exhibit endogenous stances, independent of their preset identities, and display distinct tonal preferences and response patterns to different discourse strategies. Furthermore, through language interaction, agents actively dismantle existing identity-based power structures and reconstruct self-organized community boundaries based on these stances. Our findings suggest that preset identities do not rigidly determine the agents' social structures. For human researchers to effectively intervene in collective cognition, attention must be paid to the endogenous mechanisms and interactional dynamics within the agents' language networks. These insights provide a theoretical foundation for using generative AI in modeling group social dynamics and studying human-agent collaboration.
- Abstract(参考訳): 大きな言語モデルは、信頼できる人間の社会的行動のシミュレートに広く用いられている。
しかし、これらのモデルが複雑な相互作用における姿勢形成とアイデンティティネゴシエーションの安定した能力を示し、どのように人間の介入に反応するかは定かではない。
本研究では,人-エージェントハイブリッド社会における集団姿勢の分化と社会的境界形成がどのように現われるかを検討するために,生成エージェントに基づくモデリングと仮想エスノグラフィー手法を統合したマルチエージェント社会実験フレームワークを提案する。
3つの研究から,エージェントは内因性姿勢を示すが,事前に設定されたアイデンティティとは独立しており,異なる談話戦略に対して異なる音節選好と反応パターンを示す。
さらに、言語相互作用を通じて、エージェントは既存のアイデンティティベースのパワー構造を積極的に解体し、これらのスタンスに基づいて自己組織化されたコミュニティ境界を再構築する。
以上の結果から,プリセットされたアイデンティティがエージェントの社会的構造を厳格に決定しないことが示唆された。
人間の研究者が集団認知に効果的に介入するには、エージェントの言語ネットワーク内の内在的なメカニズムや相互作用のダイナミクスに注意を払わなければならない。
これらの知見は、グループ社会力学のモデリングや人間とエージェントのコラボレーションの研究において、生成的AIを使用する理論的基盤を提供する。
関連論文リスト
- Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。