論文の概要: PRISM: A Personality-Driven Multi-Agent Framework for Social Media Simulation
- arxiv url: http://arxiv.org/abs/2512.19933v1
- Date: Mon, 22 Dec 2025 23:31:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.687577
- Title: PRISM: A Personality-Driven Multi-Agent Framework for Social Media Simulation
- Title(参考訳): PRISM:ソーシャルメディアシミュレーションのためのパーソナリティ駆動型マルチエージェントフレームワーク
- Authors: Zhixiang Lu, Xueyuan Deng, Yiran Liu, Yulong Li, Qiang Yan, Imran Razzak, Jionglong Su,
- Abstract要約: パーソナリティ・リフラクト・インテリジェント・シミュレーション・モデル (PRISM) を導入する。
PRISMは、標準的な均一性やビッグファイブベンチマークよりも優れた、人間の根拠の真理との整合性を達成している。
この枠組みは合理的な抑圧や感情共鳴のような創発的な現象を効果的に再現し、複雑なソーシャルメディアエコシステムを解析するための堅牢なツールを提供する。
- 参考スコア(独自算出の注目度): 24.36529339525981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional agent-based models (ABMs) of opinion dynamics often fail to capture the psychological heterogeneity driving online polarization due to simplistic homogeneity assumptions. This limitation obscures the critical interplay between individual cognitive biases and information propagation, thereby hindering a mechanistic understanding of how ideological divides are amplified. To address this challenge, we introduce the Personality-Refracted Intelligent Simulation Model (PRISM), a hybrid framework coupling stochastic differential equations (SDE) for continuous emotional evolution with a personality-conditional partially observable Markov decision process (PC-POMDP) for discrete decision-making. In contrast to continuous trait approaches, PRISM assigns distinct Myers-Briggs Type Indicator (MBTI) based cognitive policies to multimodal large language model (MLLM) agents, initialized via data-driven priors from large-scale social media datasets. PRISM achieves superior personality consistency aligned with human ground truth, significantly outperforming standard homogeneous and Big Five benchmarks. This framework effectively replicates emergent phenomena such as rational suppression and affective resonance, offering a robust tool for analyzing complex social media ecosystems.
- Abstract(参考訳): 意見力学の伝統的なエージェントベースモデル(ABM)は、単純な同質性の仮定により、オンライン偏極を駆動する心理的不均一性を捉えるのに失敗することが多い。
この制限は、個人の認知バイアスと情報伝播の間の批判的な相互作用を曖昧にし、イデオロギーの分割がどのように増幅されるかの機械的理解を妨げる。
この課題を解決するために,パーソナリティ・リフラクト・インテリジェント・シミュレーション・モデル(PRISM)を導入し,個別意思決定のためのパーソナリティ条件付き部分観測可能なマルコフ決定プロセス(PC-POMDP)と連続的な感情進化のための確率微分方程式(SDE)を結合するハイブリッドフレームワークを提案する。
連続的な特徴的アプローチとは対照的に、PRISMはMers-Briggs Type Indicator (MBTI)ベースの認知ポリシーをマルチモーダルな大規模言語モデル(MLLM)エージェントに割り当てる。
PRISMは、人間的根拠の真理に整合した優れた人格整合性を実現し、標準の均一性やビッグファイブベンチマークを著しく上回っている。
この枠組みは合理的な抑圧や感情共鳴のような創発的な現象を効果的に再現し、複雑なソーシャルメディアエコシステムを解析するための堅牢なツールを提供する。
関連論文リスト
- Social World Model-Augmented Mechanism Design Policy Learning [58.739456918502704]
SWM-AP (Social World Model-Augmented Mechanism Design Policy Learning) を導入する。
SWM-APは,累積報酬とサンプル効率において,モデルベースおよびモデルフリーのRLベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-10-22T06:01:21Z) - Large Population Models [5.935007288459162]
大規模な人口モデルは、前例のない規模の現実的な行動と相互作用で全人口をシミュレートする。
これにより、実際の実装の前にエージェントの振る舞いがシステムレベルの結果とテストの介入にどのように集約されるかが観察できる。
LPMは、AI研究における補完的なパスとして、集合的インテリジェンスを照らし、実世界の展開前にポリシーや社会革新のテスト基盤を提供する。
論文 参考訳(メタデータ) (2025-07-14T04:11:54Z) - GGBond: Growing Graph-Based AI-Agent Society for Socially-Aware Recommender Simulation [2.7083394633019973]
本研究では,ユーザの行動変化を現実的にシミュレートする高忠実な社会シミュレーションプラットフォームを提案する。
このシステムは、重要な心理的メカニズムをカプセル化した5層認知アーキテクチャを備えたSim-User Agentsの集団で構成されている。
特に、心理学的・社会学的理論に基づく近親感-好奇心-相反性--リスク(ICR2)のモチベーションエンジンについて紹介する。
論文 参考訳(メタデータ) (2025-05-27T13:09:21Z) - MF-LLM: Simulating Population Decision Dynamics via a Mean-Field Large Language Model Framework [53.82097200295448]
MF-LLM(Mean-Field LLM)は,まず平均場理論を社会シミュレーションに取り入れる。
MF-LLMは反復過程を通じて個人と人口間の双方向相互作用をモデル化する。
IB-Tuneは、Information Bottleneckの原理にインスパイアされた、新しい微調整手法である。
論文 参考訳(メタデータ) (2025-04-30T12:41:51Z) - Adaptive Preference Aggregation [1.6317061277457001]
社会的選択理論は嗜好を集約する枠組みを提供するが、AIの典型的な多次元アプリケーションのために開発されたものではない。
本研究は、ユーザのコンテキストに適応し、Condorcet-Consistent Solutionのコンセプトである最大抽選の良さを継承する選好集約戦略を導入する。
論文 参考訳(メタデータ) (2025-03-13T09:57:41Z) - Synthetic Social Media Influence Experimentation via an Agentic Reinforcement Learning Large Language Model Bot [7.242974711907219]
本研究は,エージェント・インテリジェンスとLarge Language Models(LLM)を組み合わせることで,トピック固有の影響メカニズムをテストする新しいシミュレーション環境を提供する。
我々のフレームワークには、投稿を生成し、特定のトピックについて意見を形成し、議論の結果に基づいて相互にフォロー/アンフォローするエージェントが含まれています。
論文 参考訳(メタデータ) (2024-11-29T11:37:12Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。