論文の概要: Simulating Misinformation Propagation in Social Networks using Large Language Models
- arxiv url: http://arxiv.org/abs/2511.10384v1
- Date: Fri, 14 Nov 2025 01:48:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.837225
- Title: Simulating Misinformation Propagation in Social Networks using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたソーシャルネットワークにおける誤情報伝播のシミュレーション
- Authors: Raj Gaurav Maurya, Vaibhav Shukla, Raj Abhijit Dandekar, Rajat Dandekar, Sreedath Panat,
- Abstract要約: ソーシャルメディア上の誤報は、人間の認知バイアスによって増幅される、驚き、感情、アイデンティティ駆動推論に基づいて成長する。
これらのメカニズムを解明するために、ユーザレベルの偏見、イデオロギー的アライメント、信頼誤報を模倣する合成エージェントとして、大規模言語モデル(LLM)ペルソナをモデル化する。
本セットアップでは,このようなエージェントのネットワークを介し,誤情報がどのように循環するかをシミュレートし,分析するための監査-条件付きノードフレームワークを導入する。
- 参考スコア(独自算出の注目度): 4.285464959472458
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Misinformation on social media thrives on surprise, emotion, and identity-driven reasoning, often amplified through human cognitive biases. To investigate these mechanisms, we model large language model (LLM) personas as synthetic agents that mimic user-level biases, ideological alignments, and trust heuristics. Within this setup, we introduce an auditor--node framework to simulate and analyze how misinformation evolves as it circulates through networks of such agents. News articles are propagated across networks of persona-conditioned LLM nodes, each rewriting received content. A question--answering-based auditor then measures factual fidelity at every step, offering interpretable, claim-level tracking of misinformation drift. We formalize a misinformation index and a misinformation propagation rate to quantify factual degradation across homogeneous and heterogeneous branches of up to 30 sequential rewrites. Experiments with 21 personas across 10 domains reveal that identity- and ideology-based personas act as misinformation accelerators, especially in politics, marketing, and technology. By contrast, expert-driven personas preserve factual stability. Controlled-random branch simulations further show that once early distortions emerge, heterogeneous persona interactions rapidly escalate misinformation to propaganda-level distortion. Our taxonomy of misinformation severity -- spanning factual errors, lies, and propaganda -- connects observed drift to established theories in misinformation studies. These findings demonstrate the dual role of LLMs as both proxies for human-like biases and as auditors capable of tracing information fidelity. The proposed framework provides an interpretable, empirically grounded approach for studying, simulating, and mitigating misinformation diffusion in digital ecosystems.
- Abstract(参考訳): ソーシャルメディア上の誤報は、人間の認知バイアスによって増幅される、驚き、感情、アイデンティティ駆動推論に基づいて成長する。
これらのメカニズムを解明するために、ユーザレベルのバイアス、イデオロギー的アライメント、信頼ヒューリスティックスを模倣する合成エージェントとして、大規模言語モデル(LLM)ペルソナをモデル化する。
本セットアップでは,このようなエージェントのネットワークを介し,誤情報がどのように循環するかをシミュレートし,分析する監査ノードフレームワークを導入する。
ニュース記事はペルソナ条件のLLMノードのネットワークに伝播し、それぞれが受信したコンテンツを書き換える。
質問回答に基づく監査者は、すべてのステップで事実の忠実度を測定し、誤情報ドリフトの解釈可能なクレームレベルの追跡を提供する。
誤り情報指数と誤情報伝播率を定式化し、最大30個の逐次書き直しからなる同種および異種分岐の事実劣化を定量化する。
10ドメインにわたる21人のペルソナによる実験では、アイデンティティとイデオロギーに基づくペルソナが、特に政治、マーケティング、技術において、誤った情報アクセラレータとして機能することが明らかになった。
対照的に、専門家主導のペルソナは、現実的な安定性を保っている。
制御ランダム分岐シミュレーションにより、初期の歪みが現れると、不均一なペルソナ相互作用が急速に誤情報をプロパガンダレベルの歪みへとエスカレートすることが示された。
我々の誤情報重大性(事実的誤り、嘘、プロパガンダ)の分類は、観測された漂流と誤情報研究の確立した理論を結びつけている。
これらの結果から,LLMは人的偏見のプロキシとして,また,情報忠実性の追跡が可能な監査役としての役割が示唆された。
提案するフレームワークは,デジタルエコシステムにおける誤情報拡散の研究,シミュレーション,緩和を行うための,解釈可能な,実証的なアプローチを提供する。
関連論文リスト
- Simulating Misinformation Vulnerabilities With Agent Personas [1.0120858915885353]
我々は,誤情報に対する応答をモデル化するために,大規模言語モデルを用いたエージェントベースシミュレーションを開発した。
5つの専門職と3つのメンタルスキーマにまたがるエージェントペルソナを構築し,ニュースの見出しに対する反応を評価する。
以上の結果から, LLM生成エージェントは, 情報応答研究のプロキシとしての利用を支援するため, 地中構造ラベルや人体予測と密接に一致していることが示唆された。
論文 参考訳(メタデータ) (2025-10-31T18:44:00Z) - Epidemiology-informed Network for Robust Rumor Detection [59.89351792706995]
本稿では, 疫学知識を統合し, 性能を高めるための新しい疫学情報ネットワーク(EIN)を提案する。
疫学理論をうわさ検出に適応させるため,各利用者が情報源情報に対する姿勢を付加することが期待されている。
実験結果から,提案したEINは実世界のデータセット上で最先端の手法より優れるだけでなく,樹木の深度にまたがる堅牢性も向上することが示された。
論文 参考訳(メタデータ) (2024-11-20T00:43:32Z) - MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - From Skepticism to Acceptance: Simulating the Attitude Dynamics Toward Fake News [38.990330255607276]
大規模言語モデル(LLM)に基づくフェイクニュース伝搬シミュレーションフレームワークを提案する。
シミュレーションの結果,話題の関連性や個々の特徴に関連する偽ニュースの伝播パターンが,実世界の観測と一致していることがわかった。
論文 参考訳(メタデータ) (2024-03-14T15:40:13Z) - Addressing contingency in algorithmic (mis)information classification:
Toward a responsible machine learning agenda [0.9659642285903421]
データサイエンティストは、モデルトレーニングとテストに使用される「真実の情報源の客観性、信頼性、正当性」にスタンスを取る必要がある。
彼らの報告された高い正確さと性能にもかかわらず、ML駆動のモデレーションシステムは、オンラインの公開討論を形作り、不正な検閲や偽の信念の強化のような下流のネガティブな影響を生み出す可能性がある。
論文 参考訳(メタデータ) (2022-10-05T17:34:51Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。