論文の概要: Build An Influential Bot In Social Media Simulations With Large Language Models
- arxiv url: http://arxiv.org/abs/2411.19635v1
- Date: Fri, 29 Nov 2024 11:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:20:58.904148
- Title: Build An Influential Bot In Social Media Simulations With Large Language Models
- Title(参考訳): ソーシャルメディアのシミュレーションにインフルエンシアティブなボットを大規模言語モデルで構築
- Authors: Bailu Jin, Weisi Guo,
- Abstract要約: 本研究では,エージェントベースモデリング(ABM)とLarge Language Models(LLM)を組み合わせた新しいシミュレーション環境を提案する。
本稿では,Reinforcement Learning (RL) の革新的応用として,世論指導者形成の過程を再現する手法を提案する。
以上の結果から,行動空間の制限と自己観察の導入が,世論指導層形成の安定に寄与する重要な要因であることが示唆された。
- 参考スコア(独自算出の注目度): 7.242974711907219
- License:
- Abstract: Understanding the dynamics of public opinion evolution on online social platforms is critical for analyzing influence mechanisms. Traditional approaches to influencer analysis are typically divided into qualitative assessments of personal attributes and quantitative evaluations of influence power. In this study, we introduce a novel simulated environment that combines Agent-Based Modeling (ABM) with Large Language Models (LLMs), enabling agents to generate posts, form opinions, and update follower networks. This simulation allows for more detailed observations of how opinion leaders emerge. Additionally, we present an innovative application of Reinforcement Learning (RL) to replicate the process of opinion leader formation. Our findings reveal that limiting the action space and incorporating self-observation are key factors for achieving stable opinion leader generation. The learning curves demonstrate the model's capacity to identify optimal strategies and adapt to complex, unpredictable dynamics.
- Abstract(参考訳): オンラインソーシャルプラットフォームにおける世論の進化のダイナミクスを理解することは、影響メカニズムの分析に不可欠である。
インフルエンサー分析への伝統的なアプローチは、典型的には、個人属性の質的な評価と影響力の定量的評価に分けられる。
本研究では,エージェントベースモデリング(ABM)とLarge Language Models(LLM)を組み合わせることで,エージェントが投稿を生成し,意見を形成し,フォロワーネットワークを更新できる新しいシミュレーション環境を提案する。
このシミュレーションにより、意見のリーダーがどう現れるか、より詳細な観察が可能になる。
さらに、意見リーダー形成の過程を再現するために、Reinforcement Learning (RL) の革新的な応用を提案する。
以上の結果から,行動空間の制限と自己観察の導入が,世論指導層形成の安定に寄与する重要な要因であることが示唆された。
学習曲線は、最適な戦略を特定し、複雑な予測不可能な力学に適応するモデルの能力を示す。
関連論文リスト
- TwinMarket: A Scalable Behavioral and Social Simulation for Financial Markets [24.354300029071418]
大規模言語モデル(LLM)エージェントは人間の振る舞いをモデル化するためのシミュレーションツールとして注目を集めている。
社会経済システムのシミュレートにLLMを活用する新しいマルチエージェントフレームワークであるTwinMarketを紹介した。
我々のアプローチは、個人の意思決定と集団社会経済パターンの間の複雑な相互作用に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-03T16:39:48Z) - WorldSimBench: Towards Video Generation Models as World Simulators [79.69709361730865]
我々は、予測モデルの機能を階層に分類し、WorldSimBenchと呼ばれる2つの評価フレームワークを提案することにより、World Simulatorの評価の第一歩を踏み出す。
WorldSimBenchにはExplicit Perceptual EvaluationとImplicit Manipulative Evaluationが含まれている。
我々の総合的な評価は、ビデオ生成モデルのさらなる革新を促進する重要な洞察を与え、World Simulatorsをエンボディされた人工知能への重要な進歩と位置づけている。
論文 参考訳(メタデータ) (2024-10-23T17:56:11Z) - Latent-Predictive Empowerment: Measuring Empowerment without a Simulator [56.53777237504011]
我々は、より実用的な方法でエンパワーメントを計算するアルゴリズムであるLatent-Predictive Empowerment(LPE)を提案する。
LPEは、スキルと国家間の相互情報の原則的な置き換えである目的を最大化することで、大きなスキルセットを学習する。
論文 参考訳(メタデータ) (2024-10-15T00:41:18Z) - On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - Fusing Dynamics Equation: A Social Opinions Prediction Algorithm with LLM-based Agents [6.1923703280119105]
本稿では,ソーシャルメディア利用者の意見を動的に表現するための革新的なシミュレーション手法を提案する。
FDE-LLMアルゴリズムは意見力学と流行モデルを含む。
ユーザーを意見のリーダーとフォロワーに分類する。
論文 参考訳(メタデータ) (2024-09-13T11:02:28Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Simulating Opinion Dynamics with Networks of LLM-based Agents [7.697132934635411]
本稿では,Large Language Models (LLMs) の集団に基づく意見力学のシミュレーション手法を提案する。
以上の結果から, LLMエージェントの正確な情報生成に対するバイアスが強く, シミュレーションエージェントが科学的現実に一致していることが明らかとなった。
しかし、素早い工学を通して確認バイアスを誘導した後、既存のエージェント・ベース・モデリングや意見ダイナミクス研究と並んで意見の断片化を観察した。
論文 参考訳(メタデータ) (2023-11-16T07:01:48Z) - Training Socially Aligned Language Models on Simulated Social
Interactions [99.39979111807388]
AIシステムにおける社会的アライメントは、確立された社会的価値に応じてこれらのモデルが振舞うことを保証することを目的としている。
現在の言語モデル(LM)は、トレーニングコーパスを独立して厳格に複製するように訓練されている。
本研究は,シミュレートされた社会的相互作用からLMを学習することのできる,新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-26T14:17:36Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Learning Opinion Dynamics From Social Traces [25.161493874783584]
本稿では,現実の社会的トレースに,生成的,エージェントライクな意見力学モデルを適用するための推論機構を提案する。
本稿では,古典的エージェントに基づく意見力学モデルから,その生成的モデルへの変換による提案について紹介する。
われわれのモデルをRedditの現実世界のデータに適用して、バックファイア効果の影響に関する長年にわたる疑問を探る。
論文 参考訳(メタデータ) (2020-06-02T14:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。