論文の概要: Benchmarking Political Persuasion Risks Across Frontier Large Language Models
- arxiv url: http://arxiv.org/abs/2603.09884v1
- Date: Tue, 10 Mar 2026 16:42:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.461455
- Title: Benchmarking Political Persuasion Risks Across Frontier Large Language Models
- Title(参考訳): 大規模言語モデルにおける政治的説得リスクのベンチマーク
- Authors: Zhongren Chen, Joshua Kalla, Quan Le,
- Abstract要約: 以前の研究では、Large Language Models (LLMs) は標準的な政治キャンペーンの慣行ほど説得力がないと主張している。
我々は,Arthropic,OpenAI,Google,xAIによって開発された7つの最先端LLMを評価した。
特にクロードモデルは最も説得力があり、グロクは最低である。
- 参考スコア(独自算出の注目度): 1.8137773774884758
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Concerns persist regarding the capacity of Large Language Models (LLMs) to sway political views. Although prior research has claimed that LLMs are not more persuasive than standard political campaign practices, the recent rise of frontier models warrants further study. In two survey experiments (N=19,145) across bipartisan issues and stances, we evaluate seven state-of-the-art LLMs developed by Anthropic, OpenAI, Google, and xAI. We find that LLMs outperform standard campaign advertisements, with heterogeneity in performance across models. Specifically, Claude models exhibit the highest persuasiveness, while Grok exhibits the lowest. The results are robust across issues and stances. Moreover, in contrast to the findings in Hackenburg et al. (2025b) and Lin et al. (2025) that information-based prompts boost persuasiveness, we find that the effectiveness of information-based prompts is model-dependent: they increase the persuasiveness of Claude and Grok while substantially reducing that of GPT. We introduce a data-driven and strategy-agnostic LLM-assisted conversation analysis approach to identify and assess underlying persuasive strategies. Our work benchmarks the persuasive risks of frontier models and provides a framework for cross-model comparative risk assessment.
- Abstract(参考訳): 大規模言語モデル(LLM)の政治的見解を損なう能力に関する懸念が続いている。
以前の研究では、LLMは通常の政治キャンペーンよりも説得力がないと主張しているが、最近のフロンティアモデルの台頭はさらなる研究を保証している。
両党の課題と姿勢に関する2つの調査実験 (N=19,145) において、Arthropic、OpenAI、Google、xAIによって開発された7つの最先端LCMを評価した。
LLMは標準的なキャンペーン広告より優れており、モデル間での不均一性がある。
特にクロードモデルは最も説得力があり、グロクは最低である。
結果は、問題やスタンスに対して堅牢です。
さらに,Hackenburg et al (2025b) やLin et al (2025b) では,情報に基づくプロンプトが説得力を高めるという発見とは対照的に,情報に基づくプロンプトの有効性はモデル依存的であることが判明した。
データ駆動型かつ戦略に依存しないLLM支援会話分析手法を導入し、基礎となる説得戦略を特定し評価する。
我々の研究は、フロンティアモデルの説得的リスクをベンチマークし、クロスモデル比較リスクアセスメントのためのフレームワークを提供する。
関連論文リスト
- Reasoning Boosts Opinion Alignment in LLMs [30.074886272342777]
推論が意見の整合性を改善するかを検討する。
強化学習(RL)によって実現された数学的推論の最近の進歩により、我々は、プロファイルに一貫性のある解を生成するためにモデルを訓練した。
我々は、米国、ヨーロッパ、スイスの政治を対象とする3つのデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2026-03-01T18:19:44Z) - Identifying Fine-grained Forms of Populism in Political Discourse: A Case Study on Donald Trump's Presidential Campaigns [17.242754326635833]
本稿では,大言語モデルがポピュリズムの微細な形態を識別し,分類できるかどうかを検討する。
オープンウェイトとプロプライエタリの両方で、複数のプロンプトパラダイムで事前訓練された(大規模な)言語モデルを評価する。
微調整のRoBERTa分類器は、微調整のない限り、新しい命令のLLMをはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2025-07-25T14:18:54Z) - A Framework to Assess the Persuasion Risks Large Language Model Chatbots Pose to Democratic Societies [1.1819975950139372]
大規模言語モデル(LLM)は、その説得力を通じて民主主義社会に影響を及ぼす。
我々は,LLMを用いた多数の有権者を説得するために,2つの調査実験と実世界のシミュレーション演習を実施している。
従来のキャンペーン手法では100ドルに対して, LLMベースの説得は48~74ドルと見積もられた。
論文 参考訳(メタデータ) (2025-04-29T16:02:51Z) - Fact-checking with Generative AI: A Systematic Cross-Topic Examination of LLMs Capacity to Detect Veracity of Political Information [0.0]
本研究の目的は,大規模言語モデル (LLM) がファクトチェックにどのように用いられるかを評価することである。
我々は5つのLLMの性能を体系的に評価するAI監査手法を用いる。
結果は、特にセンシティブなトピックにおいて、モデルが偽文を識別するのが優れていることを示している。
論文 参考訳(メタデータ) (2025-03-11T13:06:40Z) - Evaluating Implicit Bias in Large Language Models by Attacking From a Psychometric Perspective [66.34066553400108]
我々は、ある人口層に対する大きな言語モデルの暗黙の偏見を厳格に評価する。
心理測定の原則にインスパイアされた我々は,3つの攻撃的アプローチ,すなわち,軽視,軽視,指導を提案する。
提案手法は,LLMの内部バイアスを競合ベースラインよりも効果的に引き出すことができる。
論文 参考訳(メタデータ) (2024-06-20T06:42:08Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。