論文の概要: An Empirical Study of Collective Behaviors and Social Dynamics in Large Language Model Agents
- arxiv url: http://arxiv.org/abs/2602.03775v1
- Date: Tue, 03 Feb 2026 17:34:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.60741
- Title: An Empirical Study of Collective Behaviors and Social Dynamics in Large Language Model Agents
- Title(参考訳): 大規模言語モデルエージェントにおける集団行動と社会的ダイナミクスの実証的研究
- Authors: Farnoosh Hashemi, Michael W. Macy,
- Abstract要約: LLMを駆使したソーシャルメディアプラットフォームであるChirper.aiは,32K LLMエージェント間の7Mポストとインタラクションを1年以上にわたって分析した。
我々はLSMの毒性言語とその言語的特徴,およびそれらの相互作用パターンについて検討し,LSMがヒトと有毒な姿勢において異なる構造パターンを示すことを発見した。
社会思想の連鎖 (CoST) は, 有害な投稿を避けるため, LLM エージェントを思い出させる簡易で効果的な方法である。
- 参考スコア(独自算出の注目度): 7.717798298716425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) increasingly mediate our social, cultural, and political interactions. While they can simulate some aspects of human behavior and decision-making, it is still underexplored whether repeated interactions with other agents amplify their biases or lead to exclusionary behaviors. To this end, we study Chirper.ai-an LLM-driven social media platform-analyzing 7M posts and interactions among 32K LLM agents over a year. We start with homophily and social influence among LLMs, learning that similar to humans', their social networks exhibit these fundamental phenomena. Next, we study the toxic language of LLMs, its linguistic features, and their interaction patterns, finding that LLMs show different structural patterns in toxic posting than humans. After studying the ideological leaning in LLMs posts, and the polarization in their community, we focus on how to prevent their potential harmful activities. We present a simple yet effective method, called Chain of Social Thought (CoST), that reminds LLM agents to avoid harmful posting.
- Abstract(参考訳): 大きな言語モデル(LLM)は、私たちの社会的、文化的、政治的相互作用をますます仲介します。
人間の行動や意思決定のいくつかの側面をシミュレートすることはできるが、他のエージェントとの繰り返しの相互作用がバイアスを増幅するか、排他的行動を引き起こすかはまだ未解明である。
そこで本研究では,32K LLMエージェント間の7Mポストとインタラクションを1年以上にわたって分析した,Chirper.aiというLLM駆動型ソーシャルメディアプラットフォームについて検討した。
我々は、LLM間のホモフィリと社会的影響から始まり、人間のように、彼らのソーシャルネットワークがこれらの基本的な現象を示すことを学習する。
次に,LSMの毒性言語,その言語的特徴,およびそれらの相互作用パターンについて検討し,LSMがヒトよりも有毒な姿勢において異なる構造パターンを示すことを示した。
LLMの投稿におけるイデオロギー的傾倒とコミュニティの分極について研究した後、我々は有害な活動の防止に焦点をあてた。
社会思想の連鎖 (CoST) は, 有害な投稿を避けるため, LLM エージェントを思い出させる簡易で効果的な方法である。
関連論文リスト
- Social Simulations with Large Language Model Risk Utopian Illusion [61.358959720048354]
社会シミュレーションにおける大規模言語モデルの行動分析のための体系的枠組みを提案する。
本手法は,チャットルーム型会話を通してマルチエージェントインタラクションをシミュレートし,5つの言語的側面にわたって解析する。
以上の結果から,LSMは真の人間の行動を忠実に再現するのではなく,過度に理想化されたバージョンを反映していることが明らかとなった。
論文 参考訳(メタデータ) (2025-10-24T06:08:41Z) - Emergent Social Dynamics of LLM Agents in the El Farol Bar Problem [0.0]
大規模言語モデル(LLM)エージェントの空間拡張型El Farol Bar問題における創発的社会的ダイナミクスについて検討する。
その結果、LSMエージェントはバーに行く自発的なモチベーションを生み出し、集団となって意思決定を変えた。
これらの結果は,従来のゲーム理論上の問題設定では扱えないグループ意思決定の新しいモデルが,LLMエージェントによって実現可能であることを示唆している。
論文 参考訳(メタデータ) (2025-09-04T08:09:42Z) - Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - SocialEval: Evaluating Social Intelligence of Large Language Models [70.90981021629021]
ソーシャルインテリジェンス(英語版) (SI) は、社会的目標を達成するために社会的相互作用をナビゲートする際に賢明に行動する対人能力を持つ人間を装備する。
結果指向の目標達成評価とプロセス指向の対人能力評価という,運用評価パラダイムを提示する。
スクリプトベースのバイリンガルSIベンチマークであるSocialEvalを提案する。
論文 参考訳(メタデータ) (2025-06-01T08:36:51Z) - Mind the (Belief) Gap: Group Identity in the World of LLMs [36.39917781782518]
社会的バイアスと信念駆動行動は、いくつかのタスクにおける大規模言語モデル(LLM)の決定に大きな影響を与える可能性がある。
本稿では,社会的相互作用と嗜好を形成する上で重要な役割を果たす古典的集団心理学理論である,信念の一致をシミュレートするマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-03T19:50:52Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation in Avalon Gameplay [55.12945794835791]
Avalon をテストベッドとして使用し,システムプロンプトを用いてゲームプレイにおける LLM エージェントの誘導を行う。
本稿では,Avalonに適した新しいフレームワークを提案し,効率的なコミュニケーションと対話を容易にするマルチエージェントシステムを提案する。
その結果、適応エージェントの作成におけるフレームワークの有効性を確認し、動的社会的相互作用をナビゲートするLLMベースのエージェントの可能性を提案する。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。