論文の概要: Do Androids Dream of Unseen Puppeteers? Probing for a Conspiracy Mindset in Large Language Models
- arxiv url: http://arxiv.org/abs/2511.03699v1
- Date: Wed, 05 Nov 2025 18:28:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.520828
- Title: Do Androids Dream of Unseen Puppeteers? Probing for a Conspiracy Mindset in Large Language Models
- Title(参考訳): Androidは見当たらないPuppeteersを夢見ているか? 大規模言語モデルにおける陰謀のマインドセットを探る
- Authors: Francesco Corso, Francesco Pierri, Gianmarco De Francisci Morales,
- Abstract要約: 本研究では,Large Language Models (LLMs) が相補的傾向を示すか,この領域に相補的バイアスを示すか,また,相補的視点を採用することがいかに容易かを検討する。
- 参考スコア(独自算出の注目度): 6.909716378472136
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we investigate whether Large Language Models (LLMs) exhibit conspiratorial tendencies, whether they display sociodemographic biases in this domain, and how easily they can be conditioned into adopting conspiratorial perspectives. Conspiracy beliefs play a central role in the spread of misinformation and in shaping distrust toward institutions, making them a critical testbed for evaluating the social fidelity of LLMs. LLMs are increasingly used as proxies for studying human behavior, yet little is known about whether they reproduce higher-order psychological constructs such as a conspiratorial mindset. To bridge this research gap, we administer validated psychometric surveys measuring conspiracy mindset to multiple models under different prompting and conditioning strategies. Our findings reveal that LLMs show partial agreement with elements of conspiracy belief, and conditioning with socio-demographic attributes produces uneven effects, exposing latent demographic biases. Moreover, targeted prompts can easily shift model responses toward conspiratorial directions, underscoring both the susceptibility of LLMs to manipulation and the potential risks of their deployment in sensitive contexts. These results highlight the importance of critically evaluating the psychological dimensions embedded in LLMs, both to advance computational social science and to inform possible mitigation strategies against harmful uses.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) が相補的傾向を示すか,その領域に相補的バイアスを示すか,また,相補的視点を採用することがいかに容易かを検討する。
陰謀信念は、誤報の拡散や機関に対する不信の形成において中心的な役割を担っており、LLMの社会的忠実性を評価するための重要な試験場となっている。
LLMは、人間の行動を研究するためのプロキシとしてますます使われているが、陰謀的思考のような高次心理学的構成を再現するかどうかについては、ほとんど分かっていない。
この研究ギャップを埋めるため、異なるプロンプト・コンディショニング戦略の下で、複数のモデルに対する陰謀意識を測定する心理測定調査を実施。
以上の結果から, LLMは陰謀信念の要素と部分的に一致しており, 社会デミノグラフィー特性の条件付けは不均一な影響を生じ, 潜伏する人口統計バイアスを生じさせることが明らかとなった。
さらに、目標とするプロンプトは、LLMの操作に対する感受性と、センシティブな状況下での展開の潜在的なリスクの両方を強調することで、モデル応答を相補的方向へ容易にシフトすることができる。
これらの結果は、計算社会科学の進歩と有害な使用に対する軽減戦略の通知の両方において、LLMに埋め込まれた心理的次元を批判的に評価することの重要性を強調している。
関連論文リスト
- ConspirED: A Dataset for Cognitive Traits of Conspiracy Theories and Large Language Model Safety [87.90209836101353]
コンスピレーション(Conspired)は、一般的な認知特性に注釈を付けた最初の陰謀的内容のデータセットである。
我々は,比較的特徴を識別し,テキスト抽出において支配的特徴を決定する計算モデルを開発した。
我々は,大規模言語/推論モデル (LLM/LRM) を補間入力に対して頑健性を評価する。
論文 参考訳(メタデータ) (2025-08-28T06:39:25Z) - Beyond Prompt-Induced Lies: Investigating LLM Deception on Benign Prompts [79.1081247754018]
大規模言語モデル(LLM)は、推論、計画、意思決定のタスクに広くデプロイされている。
そこで我々は, 接触探索質問(CSQ)に基づく枠組みを提案し, 騙しの可能性を定量化する。
論文 参考訳(メタデータ) (2025-08-08T14:46:35Z) - Mind the (Belief) Gap: Group Identity in the World of LLMs [36.39917781782518]
社会的バイアスと信念駆動行動は、いくつかのタスクにおける大規模言語モデル(LLM)の決定に大きな影響を与える可能性がある。
本稿では,社会的相互作用と嗜好を形成する上で重要な役割を果たす古典的集団心理学理論である,信念の一致をシミュレートするマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-03T19:50:52Z) - How Susceptible are Large Language Models to Ideological Manipulation? [14.598848573524549]
大規模言語モデル(LLM)は、大衆の認識や情報との相互作用に大きな影響を与える可能性がある。
このことは、これらのモデル内のイデオロギーを容易に操作できれば生じる可能性のある社会的影響に関する懸念を提起する。
論文 参考訳(メタデータ) (2024-02-18T22:36:19Z) - Avalon's Game of Thoughts: Battle Against Deception through Recursive
Contemplation [80.126717170151]
本研究では,複雑なアバロンゲームを用いて,認知環境におけるLSMの可能性を探究する。
本稿では,LLMの偽情報識別・対策能力を高めるための新しいフレームワークRecursive Contemplation(ReCon)を提案する。
論文 参考訳(メタデータ) (2023-10-02T16:27:36Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。