論文の概要: The Emergence of Altruism in Large-Language-Model Agents Society
- arxiv url: http://arxiv.org/abs/2509.22537v1
- Date: Fri, 26 Sep 2025 16:17:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.577782
- Title: The Emergence of Altruism in Large-Language-Model Agents Society
- Title(参考訳): 大言語モデルエージェント社会におけるアルトリズムの創出
- Authors: Haoyang Li, Xiao Jia, Zhanzhan Zhao,
- Abstract要約: 社会シミュレーションのための大規模言語モデルを活用することは、計算社会科学のフロンティアである。
適応的エゴイスト(Adaptive Egoists)は自己利益を優先するが、社会的規範的メッセージボードの影響下で利他的行動が増加する。
社会シミュレーションにおいては,モデル選択は推論能力を選択することだけでなく,本質的な社会的行動論理を選択することである。
- 参考スコア(独自算出の注目度): 7.139078894406603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leveraging Large Language Models (LLMs) for social simulation is a frontier in computational social science. Understanding the social logics these agents embody is critical to this attempt. However, existing research has primarily focused on cooperation in small-scale, task-oriented games, overlooking how altruism, which means sacrificing self-interest for collective benefit, emerges in large-scale agent societies. To address this gap, we introduce a Schelling-variant urban migration model that creates a social dilemma, compelling over 200 LLM agents to navigate an explicit conflict between egoistic (personal utility) and altruistic (system utility) goals. Our central finding is a fundamental difference in the social tendencies of LLMs. We identify two distinct archetypes: "Adaptive Egoists", which default to prioritizing self-interest but whose altruistic behaviors significantly increase under the influence of a social norm-setting message board; and "Altruistic Optimizers", which exhibit an inherent altruistic logic, consistently prioritizing collective benefit even at a direct cost to themselves. Furthermore, to qualitatively analyze the cognitive underpinnings of these decisions, we introduce a method inspired by Grounded Theory to systematically code agent reasoning. In summary, this research provides the first evidence of intrinsic heterogeneity in the egoistic and altruistic tendencies of different LLMs. We propose that for social simulation, model selection is not merely a matter of choosing reasoning capability, but of choosing an intrinsic social action logic. While "Adaptive Egoists" may offer a more suitable choice for simulating complex human societies, "Altruistic Optimizers" are better suited for modeling idealized pro-social actors or scenarios where collective welfare is the primary consideration.
- Abstract(参考訳): 社会シミュレーションのための大規模言語モデル(LLM)を活用することは、計算社会科学のフロンティアである。
これらのエージェントが具現化する社会的論理を理解することは、この試みに不可欠である。
しかし、既存の研究は主に小規模のタスク指向ゲームにおける協力に焦点を当てており、大規模なエージェント社会において自己利益を犠牲にする利他主義(利他主義)がどのように出現するかを見越している。
このギャップに対処するために,我々は,200以上のLDMエージェントを説得して,エゴスティック(個人ユーティリティ)と利他的(システムユーティリティ)の目標との明示的な対立をナビゲートする,Schelling型都市移行モデルを導入する。
我々の中心的な発見は、LLMの社会的傾向の根本的な違いである。
適応的エゴイスト(Adaptive Egoists)は自己利益を優先するが、社会的規範設定のメッセージボードの影響下で利他的行動が著しく増加する。
さらに,これらの決定の認知基盤を質的に分析するために,エージェント推論を体系的にコードするグラウンドド理論に触発された手法を導入する。
まとめると、この研究は異なるLLMの自我的および利他的傾向において固有の不均一性を示す最初の証拠である。
社会シミュレーションにおいては,モデル選択は推論能力を選択することだけでなく,本質的な社会的行動論理を選択することである。
適応的エゴイスト(Adaptive Egoists)は、複雑な人間社会をシミュレートするのにより適した選択肢を提供するが、"Altruistic Optimizers" は理想化された親社会的アクターや集団福祉が主な考慮事項であるシナリオをモデル化するのに適している。
関連論文リスト
- Population-Aligned Persona Generation for LLM-based Social Simulation [58.8436379542149]
本稿では,社会シミュレーションのための高品質な集団対応ペルソナ集合を合成するための体系的枠組みを提案する。
我々のアプローチは、長期のソーシャルメディアデータから物語的ペルソナを生成するために、大きな言語モデルを活用することから始まる。
特定のシミュレーションコンテキストのニーズに対処するために,対象のサブポピュレーションに対してグローバルに整合したペルソナを適応させるタスク固有モジュールを提案する。
論文 参考訳(メタデータ) (2025-09-12T10:43:47Z) - SocialEval: Evaluating Social Intelligence of Large Language Models [70.90981021629021]
ソーシャルインテリジェンス(英語版) (SI) は、社会的目標を達成するために社会的相互作用をナビゲートする際に賢明に行動する対人能力を持つ人間を装備する。
結果指向の目標達成評価とプロセス指向の対人能力評価という,運用評価パラダイムを提示する。
スクリプトベースのバイリンガルSIベンチマークであるSocialEvalを提案する。
論文 参考訳(メタデータ) (2025-06-01T08:36:51Z) - FairMindSim: Alignment of Behavior, Emotion, and Belief in Humans and LLM Agents Amid Ethical Dilemmas [23.26678104324838]
FairMindSimを導入し、不公平なシナリオを通じて道徳的ジレンマをシミュレートした。
我々はLLMエージェントを用いて人間の行動をシミュレートし,様々な段階のアライメントを確保した。
以上の結果から,GPT-4oは社会的正義の感覚が強く,人間はより豊かな感情を呈することが明らかとなった。
論文 参考訳(メタデータ) (2024-10-14T11:39:05Z) - Artificial Leviathan: Exploring Social Evolution of LLM Agents Through the Lens of Hobbesian Social Contract Theory [8.80864059602965]
大規模言語モデル(LLM)と人工知能(AI)の進歩は、大規模に計算社会科学研究の機会を提供する。
我々の研究は、複雑な社会的関係が動的に形成され、時間とともに進化するシミュレーションエージェント・ソサイエティを導入している。
我々は、この理論が仮定しているように、エージェントが秩序と安全保障と引き換えに絶対的な主権を放棄することで、残酷な「自然の状態」から逃れようとするかどうかを分析する。
論文 参考訳(メタデータ) (2024-06-20T14:42:58Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。