論文の概要: Don't Trust Generative Agents to Mimic Communication on Social Networks Unless You Benchmarked their Empirical Realism
- arxiv url: http://arxiv.org/abs/2506.21974v1
- Date: Fri, 27 Jun 2025 07:32:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.118713
- Title: Don't Trust Generative Agents to Mimic Communication on Social Networks Unless You Benchmarked their Empirical Realism
- Title(参考訳): 経験的リアリズムをベンチマークしない限り、生成エージェントをソーシャルネットワーク上のミミカルコミュニケーションに信頼してはならない
- Authors: Simon Münker, Nils Schwager, Achim Rettinger,
- Abstract要約: 我々は,大規模言語モデルを用いて,ソーシャルネットワーク利用者の行動の再現に重点を置いている。
我々は、英語とドイツ語でユーザ動作を模倣する様々なアプローチを経験的にテストした。
本研究は, シミュレーション部品が装着された環境で測定された経験的現実性によって, 社会シミュレーションを検証すべきであることを示唆している。
- 参考スコア(独自算出の注目度): 1.734165485480267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability of Large Language Models (LLMs) to mimic human behavior triggered a plethora of computational social science research, assuming that empirical studies of humans can be conducted with AI agents instead. Since there have been conflicting research findings on whether and when this hypothesis holds, there is a need to better understand the differences in their experimental designs. We focus on replicating the behavior of social network users with the use of LLMs for the analysis of communication on social networks. First, we provide a formal framework for the simulation of social networks, before focusing on the sub-task of imitating user communication. We empirically test different approaches to imitate user behavior on X in English and German. Our findings suggest that social simulations should be validated by their empirical realism measured in the setting in which the simulation components were fitted. With this paper, we argue for more rigor when applying generative-agent-based modeling for social simulation.
- Abstract(参考訳): 人間の振る舞いを模倣するLarge Language Models(LLM)の能力は、AIエージェントを用いて人間の経験的研究を行うことができると仮定して、多くの計算社会科学研究を引き起こした。
この仮説がいつ存在するかという研究結果が矛盾しているため、実験的な設計の違いをよりよく理解する必要がある。
我々は,ソーシャルネットワーク上でのコミュニケーションの分析にLLMを用いることで,ソーシャルネットワーク利用者の行動の再現に着目する。
まず、ユーザのコミュニケーションを模倣するサブタスクに注目する前に、ソーシャルネットワークのシミュレーションのための正式なフレームワークを提供する。
我々は、英語とドイツ語でユーザ動作を模倣する様々なアプローチを経験的にテストした。
本研究は, シミュレーション部品が装着された環境で測定された経験的現実性によって, 社会シミュレーションを検証すべきであることを示唆している。
本稿では,社会シミュレーションにジェネレーティブ・エージェント・モデリングを適用する際の厳密さについて論じる。
関連論文リスト
- YuLan-OneSim: Towards the Next Generation of Social Simulator with Large Language Models [50.86336063222539]
本稿では,YuLan-OneSimというソーシャルシミュレータを紹介する。
ユーザは、シミュレータとの自然言語インタラクションを通じて、シミュレーションシナリオを記述し、洗練することができます。
我々は、経済学、社会学、政治、心理学、組織、人口統計学、法律、コミュニケーションを含む8つの領域にまたがる50のデフォルトシミュレーションシナリオを実装した。
論文 参考訳(メタデータ) (2025-05-12T14:05:17Z) - SocioVerse: A World Model for Social Simulation Powered by LLM Agents and A Pool of 10 Million Real-World Users [70.02370111025617]
本稿では,社会シミュレーションのためのエージェント駆動世界モデルであるSocioVerseを紹介する。
私たちのフレームワークは、4つの強力なアライメントコンポーネントと1000万の実際の個人からなるユーザプールを備えています。
SocioVerseは、多様性、信頼性、代表性を確保しつつ、大規模な人口動態を反映できることを示した。
論文 参考訳(メタデータ) (2025-04-14T12:12:52Z) - MOSAIC: Modeling Social AI for Content Dissemination and Regulation in Multi-Agent Simulations [16.780177153401628]
生成言語エージェントがユーザの行動を予測できる新しいオープンソースのソーシャルネットワークシミュレーションフレームワークMOSAICを提案する。
このシミュレーションは、LCMエージェントと有向なソーシャルグラフを組み合わせることで、創発的偽装行動を分析し、ユーザがオンラインソーシャルコンテンツの正確性をどのように判断するかをよりよく理解する。
論文 参考訳(メタデータ) (2025-04-10T15:06:54Z) - AgentSociety: Large-Scale Simulation of LLM-Driven Generative Agents Advances Understanding of Human Behaviors and Society [32.849311155921264]
本稿では,現実的な社会環境を統合した大規模社会シミュレータであるAgentSocietyを提案する。
提案したシミュレーターに基づいて,500万件のインタラクションをシミュレートし,10万件以上のエージェントの社会生活を生成する。
偏極、炎症性メッセージの普及、普遍的ベーシック・インカム・ポリシーの効果、ハリケーンなどの外部ショックの影響の4つに焦点をあてる。
論文 参考訳(メタデータ) (2025-02-12T15:27:07Z) - Shall We Team Up: Exploring Spontaneous Cooperation of Competing LLM Agents [18.961470450132637]
本稿では、エージェントが文脈に深く関与し、明示的な指示なしに適応的な決定を行う自然現象の重要性を強調する。
我々は,3つの競争シナリオにまたがる自発的な協力を探究し,協力の段階的出現をシミュレートした。
論文 参考訳(メタデータ) (2024-02-19T18:00:53Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。