論文の概要: PRISM: A Personality-Driven Multi-Agent Framework for Social Media Simulation
- arxiv url: http://arxiv.org/abs/2512.19933v1
- Date: Mon, 22 Dec 2025 23:31:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.687577
- Title: PRISM: A Personality-Driven Multi-Agent Framework for Social Media Simulation
- Title(参考訳): PRISM:ソーシャルメディアシミュレーションのためのパーソナリティ駆動型マルチエージェントフレームワーク
- Authors: Zhixiang Lu, Xueyuan Deng, Yiran Liu, Yulong Li, Qiang Yan, Imran Razzak, Jionglong Su,
- Abstract要約: パーソナリティ・リフラクト・インテリジェント・シミュレーション・モデル (PRISM) を導入する。
PRISMは、標準的な均一性やビッグファイブベンチマークよりも優れた、人間の根拠の真理との整合性を達成している。
この枠組みは合理的な抑圧や感情共鳴のような創発的な現象を効果的に再現し、複雑なソーシャルメディアエコシステムを解析するための堅牢なツールを提供する。
- 参考スコア(独自算出の注目度): 24.36529339525981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional agent-based models (ABMs) of opinion dynamics often fail to capture the psychological heterogeneity driving online polarization due to simplistic homogeneity assumptions. This limitation obscures the critical interplay between individual cognitive biases and information propagation, thereby hindering a mechanistic understanding of how ideological divides are amplified. To address this challenge, we introduce the Personality-Refracted Intelligent Simulation Model (PRISM), a hybrid framework coupling stochastic differential equations (SDE) for continuous emotional evolution with a personality-conditional partially observable Markov decision process (PC-POMDP) for discrete decision-making. In contrast to continuous trait approaches, PRISM assigns distinct Myers-Briggs Type Indicator (MBTI) based cognitive policies to multimodal large language model (MLLM) agents, initialized via data-driven priors from large-scale social media datasets. PRISM achieves superior personality consistency aligned with human ground truth, significantly outperforming standard homogeneous and Big Five benchmarks. This framework effectively replicates emergent phenomena such as rational suppression and affective resonance, offering a robust tool for analyzing complex social media ecosystems.
- Abstract(参考訳): 意見力学の伝統的なエージェントベースモデル(ABM)は、単純な同質性の仮定により、オンライン偏極を駆動する心理的不均一性を捉えるのに失敗することが多い。
この制限は、個人の認知バイアスと情報伝播の間の批判的な相互作用を曖昧にし、イデオロギーの分割がどのように増幅されるかの機械的理解を妨げる。
この課題を解決するために,パーソナリティ・リフラクト・インテリジェント・シミュレーション・モデル(PRISM)を導入し,個別意思決定のためのパーソナリティ条件付き部分観測可能なマルコフ決定プロセス(PC-POMDP)と連続的な感情進化のための確率微分方程式(SDE)を結合するハイブリッドフレームワークを提案する。
連続的な特徴的アプローチとは対照的に、PRISMはMers-Briggs Type Indicator (MBTI)ベースの認知ポリシーをマルチモーダルな大規模言語モデル(MLLM)エージェントに割り当てる。
PRISMは、人間的根拠の真理に整合した優れた人格整合性を実現し、標準の均一性やビッグファイブベンチマークを著しく上回っている。
この枠組みは合理的な抑圧や感情共鳴のような創発的な現象を効果的に再現し、複雑なソーシャルメディアエコシステムを解析するための堅牢なツールを提供する。
関連論文リスト
- Interpretable Debiasing of Vision-Language Models for Social Fairness [55.85977929985967]
本稿では,視覚・言語モデルに社会的属性ニューロンを局在させる,解釈可能なモデルに依存しないバイアス緩和フレームワークDeBiasLensを紹介する。
社会属性ラベルを含まない顔画像やキャプションデータセットでSAEを訓練し、特定の人口動態に高い応答性を持つニューロンを明らかにする。
我々の研究は、未来の監査ツールの基礎を築き、新興の現実世界のAIシステムにおける社会的公正性を優先します。
論文 参考訳(メタデータ) (2026-02-27T13:37:11Z) - TCEval: Using Thermal Comfort to Assess Cognitive and Perceptual Abilities of AI [0.5366500153474746]
熱的快適さは、AIシステムの現実の認知能力を評価するための理想的なパラダイムである。
我々は、AIの3つのコア認知能力を評価する最初の評価フレームワークであるTCEvalを提案する。
論文 参考訳(メタデータ) (2025-12-29T05:41:25Z) - Social World Model-Augmented Mechanism Design Policy Learning [58.739456918502704]
SWM-AP (Social World Model-Augmented Mechanism Design Policy Learning) を導入する。
SWM-APは,累積報酬とサンプル効率において,モデルベースおよびモデルフリーのRLベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-10-22T06:01:21Z) - The Social Laboratory: A Psychometric Framework for Multi-Agent LLM Evaluation [0.16921396880325779]
マルチエージェント討論を制御された「社会実験室」として活用する新しい評価枠組みを導入する。
特に認知活動において、割り当てられたペルソナが安定した、測定可能な心理測定プロファイルを誘導することを示す。
この研究は、動的、心理学的に基礎付けられた評価プロトコルの新しいクラスの青写真を提供する。
論文 参考訳(メタデータ) (2025-10-01T07:10:28Z) - Population-Aligned Persona Generation for LLM-based Social Simulation [58.84363795421489]
本稿では,社会シミュレーションのための高品質な集団対応ペルソナ集合を合成するための体系的枠組みを提案する。
我々のアプローチは、長期のソーシャルメディアデータから物語的ペルソナを生成するために、大きな言語モデルを活用することから始まる。
特定のシミュレーションコンテキストのニーズに対処するために,対象のサブポピュレーションに対してグローバルに整合したペルソナを適応させるタスク固有モジュールを提案する。
論文 参考訳(メタデータ) (2025-09-12T10:43:47Z) - DynamiX: Large-Scale Dynamic Social Network Simulator [101.65679342680542]
DynamiXは、動的ソーシャルネットワークモデリングに特化した新しい大規模ソーシャルネットワークシミュレータである。
世論のリーダーに対しては、情報ストリームに基づくリンク予測手法を提案し、同様の姿勢で潜在的ユーザを推薦する。
一般ユーザに対しては,不等式指向の行動決定モジュールを構築する。
論文 参考訳(メタデータ) (2025-07-26T12:13:30Z) - Large Population Models [5.935007288459162]
大規模な人口モデルは、前例のない規模の現実的な行動と相互作用で全人口をシミュレートする。
これにより、実際の実装の前にエージェントの振る舞いがシステムレベルの結果とテストの介入にどのように集約されるかが観察できる。
LPMは、AI研究における補完的なパスとして、集合的インテリジェンスを照らし、実世界の展開前にポリシーや社会革新のテスト基盤を提供する。
論文 参考訳(メタデータ) (2025-07-14T04:11:54Z) - GGBond: Growing Graph-Based AI-Agent Society for Socially-Aware Recommender Simulation [2.7083394633019973]
本研究では,ユーザの行動変化を現実的にシミュレートする高忠実な社会シミュレーションプラットフォームを提案する。
このシステムは、重要な心理的メカニズムをカプセル化した5層認知アーキテクチャを備えたSim-User Agentsの集団で構成されている。
特に、心理学的・社会学的理論に基づく近親感-好奇心-相反性--リスク(ICR2)のモチベーションエンジンについて紹介する。
論文 参考訳(メタデータ) (2025-05-27T13:09:21Z) - MF-LLM: Simulating Population Decision Dynamics via a Mean-Field Large Language Model Framework [53.82097200295448]
MF-LLM(Mean-Field LLM)は,まず平均場理論を社会シミュレーションに取り入れる。
MF-LLMは反復過程を通じて個人と人口間の双方向相互作用をモデル化する。
IB-Tuneは、Information Bottleneckの原理にインスパイアされた、新しい微調整手法である。
論文 参考訳(メタデータ) (2025-04-30T12:41:51Z) - Adaptive Preference Aggregation [1.6317061277457001]
社会的選択理論は嗜好を集約する枠組みを提供するが、AIの典型的な多次元アプリケーションのために開発されたものではない。
本研究は、ユーザのコンテキストに適応し、Condorcet-Consistent Solutionのコンセプトである最大抽選の良さを継承する選好集約戦略を導入する。
論文 参考訳(メタデータ) (2025-03-13T09:57:41Z) - Emergence of human-like polarization among large language model agents [79.96817421756668]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、分極を緩和するためのもっともらしい戦略を識別するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - Synthetic Social Media Influence Experimentation via an Agentic Reinforcement Learning Large Language Model Bot [7.242974711907219]
本研究は,エージェント・インテリジェンスとLarge Language Models(LLM)を組み合わせることで,トピック固有の影響メカニズムをテストする新しいシミュレーション環境を提供する。
我々のフレームワークには、投稿を生成し、特定のトピックについて意見を形成し、議論の結果に基づいて相互にフォロー/アンフォローするエージェントが含まれています。
論文 参考訳(メタデータ) (2024-11-29T11:37:12Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。