論文の概要: Beyond the "Truth": Investigating Election Rumors on Truth Social During the 2024 Election
- arxiv url: http://arxiv.org/abs/2601.04631v1
- Date: Thu, 08 Jan 2026 06:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.062175
- Title: Beyond the "Truth": Investigating Election Rumors on Truth Social During the 2024 Election
- Title(参考訳): 真実」を超えて:2024年選挙の真理社会に関する選挙噂を調査
- Authors: Etienne Casanova, R. Michael Alvarez,
- Abstract要約: 大規模言語モデル(LLM)は、社会現象を大規模に分析する前例のない機会を提供する。
本稿では,ニッチなAlt-Techプラットフォーム上での選挙噂の大規模データセットをコンパイルし,心理測定におけるLLMの価値を示す。
- 参考スコア(独自算出の注目度): 0.24554686192257416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) offer unprecedented opportunities for analyzing social phenomena at scale. This paper demonstrates the value of LLMs in psychological measurement by (1) compiling the first large-scale dataset of election rumors on a niche alt-tech platform, (2) developing a multistage Rumor Detection Agent that leverages LLMs for high-precision content classification, and (3) quantifying the psychological dynamics of rumor propagation, specifically the "illusory truth effect" in a naturalistic setting. The Rumor Detection Agent combines (i) a synthetic data-augmented, fine-tuned RoBERTa classifier, (ii) precision keyword filtering, and (iii) a two-pass LLM verification pipeline using GPT-4o mini. The findings reveal that sharing probability rises steadily with each additional exposure, providing large-scale empirical evidence for dose-response belief reinforcement in ideologically homogeneous networks. Simulation results further demonstrate rapid contagion effects: nearly one quarter of users become "infected" within just four propagation iterations. Taken together, these results illustrate how LLMs can transform psychological science by enabling the rigorous measurement of belief dynamics and misinformation spread in massive, real-world datasets.
- Abstract(参考訳): 大規模言語モデル(LLM)は、社会現象を大規模に分析する前例のない機会を提供する。
本稿では,(1)ニッチなAlt-techプラットフォーム上での選挙噂の最初の大規模データセットをコンパイルし,(2)高精度コンテンツ分類にLLMを活用する多段階の反響検出エージェントを開発し,(3)噂の伝播の心理的ダイナミクス,特に「幻想的真実効果」を自然な環境で定量化することにより,心理測定におけるLLMの価値を実証する。
噂検出エージェントが組み合わさる
i) 合成データ拡張細調整RoBERTa分類器
(ii)精度キーワードフィルタリング、及び
3) GPT-4o mini を用いた2パス LLM 検証パイプライン。
その結果,イデオロギー的に均質なネットワークにおける線量応答的信念強化の大規模な実証的証拠として,各曝露によって共有確率が着実に上昇することが明らかとなった。
シミュレーションの結果はさらに、迅速な感染効果を示しており、ユーザの4分の1近くは、たった4回の伝播イテレーションで"感染"する。
これらの結果は、LLMが大規模で現実世界のデータセットに広がる信念のダイナミクスと誤報の厳密な測定を可能にすることによって、心理的科学をどう変えるかを示している。
関連論文リスト
- Collaborative QA using Interacting LLMs. Impact of Network Structure, Node Capability and Distributed Data [13.87098169839313]
本研究では,LLMのネットワークが協調質問応答 (CQA) をどのように行うかを分析し,分散文書の集合から基礎的真理を推定する。
ネットワーク科学から平均場力学(MFD)の新たなアイデアと経済学からランダム化されたユーティリティモデルを組み合わせることで,LLMの相互作用とその幻覚について検討する。
論文 参考訳(メタデータ) (2025-11-18T03:32:17Z) - Evaluating the Simulation of Human Personality-Driven Susceptibility to Misinformation with LLMs [0.18416014644193066]
大規模言語モデル(LLM)により、大規模に合成行動データを生成することができる。
我々は,誤情報に対する個人的影響の変動を再現するために,Big-Fiveプロファイルに規定されたLLMエージェントの能力を評価する。
論文 参考訳(メタデータ) (2025-06-30T08:16:07Z) - Delving Into the Psychology of Machines: Exploring the Structure of Self-Regulated Learning via LLM-Generated Survey Responses [0.0]
大きな言語モデル(LLM)は、人間のような反応や振舞いをシミュレートする能力を提供する。
LLMは、介入シナリオのテスト、理論モデルの改良、スパースデータセットの拡張、および到達しにくい人口の表現に使用することができる。
本研究では, 項目分布, 理論的SRL次元の心理的ネットワーク, 潜在因子構造に基づく心理的妥当性について検討した。
論文 参考訳(メタデータ) (2025-06-16T11:48:58Z) - Uncertainty-Aware Fusion: An Ensemble Framework for Mitigating Hallucinations in Large Language Models [2.98260857963929]
大規模言語モデル(LLM)は、ユーザの信頼を損なう可能性のある非実効的なアウトプットを幻覚し、生成することが知られている。
表現編集やコントラスト復号といった幻覚を直接緩和する従来の手法は、しばしば追加のトレーニングデータを必要とし、実装の複雑さを伴います。
本研究では,その精度と自己評価能力に基づいて,複数のLSMを戦略的に組み合わせて幻覚を低減するためのアンサンブルフレームワークであるUncertainty-Aware Fusion (UAF)を提案する。
論文 参考訳(メタデータ) (2025-02-22T10:48:18Z) - Can LLMs Simulate Social Media Engagement? A Study on Action-Guided Response Generation [51.44040615856536]
本稿では、行動誘導応答生成によるソーシャルメディアのエンゲージメントをシミュレートする大規模言語モデルの能力について分析する。
GPT-4o-mini,O1-mini,DeepSeek-R1をソーシャルメディアエンゲージメントシミュレーションで評価した。
論文 参考訳(メタデータ) (2025-02-17T17:43:08Z) - Evaluating the Efficacy of Large Language Models in Detecting Fake News: A Comparative Analysis [0.0]
本研究では,偽ニュースコンテンツの識別・フィルタリングにおける各種LLMの有効性について検討した。
Kaggleのフェイクニュースデータセットを用いて、この研究は偽ニュース検出におけるLLMの現在の能力と限界に光を当てる。
論文 参考訳(メタデータ) (2024-06-05T02:55:21Z) - PoLLMgraph: Unraveling Hallucinations in Large Language Models via State Transition Dynamics [51.17512229589]
PoLLMgraphは、大規模言語モデルのためのモデルベースのホワイトボックス検出および予測手法である。
LLMの内部状態遷移ダイナミクスを解析することにより,幻覚を効果的に検出できることを示す。
我々の研究は、LLMのモデルベースのホワイトボックス分析の新しい手法を開拓し、LLMの振る舞いの複雑なダイナミクスをさらに探求し、理解し、洗練する研究コミュニティを動機付けている。
論文 参考訳(メタデータ) (2024-04-06T20:02:20Z) - DELL: Generating Reactions and Explanations for LLM-Based Misinformation Detection [50.805599761583444]
大規模な言語モデルは、事実性や幻覚の難しさによって制限され、ニュース記事の正確さを判断するために、棚外で直接使用される。
我々は,LLMをパイプラインの一部として組み込む誤情報検出の3つの重要な段階を同定するDellを提案する。
論文 参考訳(メタデータ) (2024-02-16T03:24:56Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [64.4610684475899]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。