論文の概要: Do LLMs Track Public Opinion? A Multi-Model Study of Favorability Predictions in the 2024 U.S. Presidential Election
- arxiv url: http://arxiv.org/abs/2602.06302v1
- Date: Fri, 06 Feb 2026 01:52:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.185354
- Title: Do LLMs Track Public Opinion? A Multi-Model Study of Favorability Predictions in the 2024 U.S. Presidential Election
- Title(参考訳): LLMは世論を追跡できるか? 2024年アメリカ合衆国大統領選挙における好ましくない予測の多モデル研究
- Authors: Riya Parikh, Sarah H. Cen, Chara Podimata,
- Abstract要約: 本稿では,2024年アメリカ合衆国大統領選挙における出口調査の結果から,Large Language Models (LLMs) が世論を追跡できるかどうかを検討する。
我々は,Reuters,CNN,Gallup,Quinnipiac,ABCを含む主要5団体の質の高い調査結果に対して,9つのLCM構成から予測した。
我々は,既成のLCMが直接的に質問された時の世論調査を確実に追跡していないことを結論し,選挙予測の意義について論じる。
- 参考スコア(独自算出の注目度): 5.071155887901222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate whether Large Language Models (LLMs) can track public opinion as measured by exit polls during the 2024 U.S. presidential election cycle. Our analysis focuses on headline favorability (e.g., "Favorable" vs. "Unfavorable") of presidential candidates across multiple LLMs queried daily throughout the election season. Using the publicly available llm-election-data-2024 dataset, we evaluate predictions from nine LLM configurations against a curated set of five high-quality polls from major organizations including Reuters, CNN, Gallup, Quinnipiac, and ABC. We find systematic directional miscalibration. For Kamala Harris, all models overpredict favorability by 10-40% relative to polls. For Donald Trump, biases are smaller (5-10%) and poll-dependent, with substantially lower cross-model variation. These deviations persist under temporal smoothing and are not corrected by internet-augmented retrieval. We conclude that off-the-shelf LLMs do not reliably track polls when queried in a straightforward manner and discuss implications for election forecasting.
- Abstract(参考訳): 本稿では,2024年アメリカ合衆国大統領選挙における出口調査の結果から,Large Language Models (LLMs) が世論を追跡できるかどうかを検討する。
我々の分析は、選挙シーズンを通じて毎日複数のLDMで質問された大統領候補の見出し優遇性(例えば「好ましくない」対「好ましくない」)に焦点を当てた。
公開されているllm-election-data-2024データセットを使用して、Reuters、CNN、Gallup、Quinnipiac、ABCといった大手組織から収集された5つの高品質な投票に対して、9つのLLM構成からの予測を評価する。
系統的な方向性の誤校正が見つかる。
カマラ・ハリスにとって、全てのモデルは世論調査と比較して10-40%の支持率を過大評価している。
ドナルド・トランプにとって、偏見は小さく(5-10%)、世論調査に依存している。
これらの偏差は時間的平滑化の下で持続し、インターネット拡張検索では修正されない。
我々は,既成のLCMが直接的に質問された時の世論調査を確実に追跡していないことを結論し,選挙予測の意義について論じる。
関連論文リスト
- Hearing the Order: Investigating Selection Bias in Large Audio-Language Models [51.69003519291754]
大規模オーディオ言語モデル(LALM)は、注文された選択肢に対する推論を含むタスクでしばしば使用される。
本稿では,この問題をLALMで同定し,解析する。
論文 参考訳(メタデータ) (2025-10-01T08:00:58Z) - Large-Scale, Longitudinal Study of Large Language Models During the 2024 US Election Season [43.092041950140164]
2024年アメリカ合衆国大統領選挙は、大きな言語モデル(LLM)が普及して以来、アメリカ合衆国で最初の主要大会である。
この瞬間は、LLMが情報エコシステムをどう形成し、政治談話に影響を与えるかという緊急の疑問を提起する。
我々は,2024年7月から11月にかけて,ほぼ毎日のケイデンスに関する12,000以上の質問を構造化された調査を用いて,12種類のモデルについて大規模な縦断調査を行った。
論文 参考訳(メタデータ) (2025-09-22T22:04:19Z) - A Large-Scale Simulation on Large Language Models for Decision-Making in Political Science [18.521101885334673]
我々は,大規模投票者の意思決定をシミュレートする理論駆動多段階推論フレームワークを開発した。
我々は、現実の有権者データに校正された合成人格を用いて、最近のアメリカ合衆国大統領選挙の大規模なシミュレーションを行う。
論文 参考訳(メタデータ) (2024-12-19T07:10:51Z) - Towards More Accurate US Presidential Election via Multi-step Reasoning with Large Language Models [12.582222782098587]
選挙予測は、限られた有権者レベルのデータ、急速に変化する政治情勢、複雑な人間の振る舞いをモデル化する必要性など、ユニークな課題を生んでいる。
政治分析のための多段階推論フレームワークを提案する。
われわれのアプローチは、2016年と2020年のアメリカ大統領選挙研究(ANES)の実際のデータに基づいて検証されている。
論文 参考訳(メタデータ) (2024-10-21T06:18:53Z) - Vox Populi, Vox AI? Using Language Models to Estimate German Public Opinion [45.84205238554709]
我々は,2017年ドイツ縦断選挙研究の回答者の個人特性と一致するペルソナの合成サンプルを生成した。
我々は,LSM GPT-3.5に対して,各回答者の投票選択を予測し,これらの予測を調査に基づく推定と比較する。
GPT-3.5は市民の投票選択を正確に予測せず、緑の党と左派に偏見を呈している。
論文 参考訳(メタデータ) (2024-07-11T14:52:18Z) - Election Polls on Social Media: Prevalence, Biases, and Voter Fraud Beliefs [5.772751069162341]
この研究は、2020年のアメリカ合衆国大統領選挙に焦点を当てている。
われわれは、Twitterの世論調査が年上の男性によって不釣り合いに書かれており、ドナルド・トランプ候補に対する大きな偏見を示していることに気付く。
また、選挙投票に参加するTwitterアカウントはボットになりがちで、選挙投票の結果は選挙日よりも選挙前の方が偏見が強いこともわかりました。
論文 参考訳(メタデータ) (2024-05-18T02:29:35Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Large Language Models Are Not Robust Multiple Choice Selectors [117.72712117510953]
複数選択質問(MCQ)は、大規模言語モデル(LLM)の評価において、一般的なが重要なタスク形式として機能する。
この研究は、現代のLLMが、その固有の「選択バイアス」によるオプション位置変化に対して脆弱であることを示している。
そこで本研究では,オプションIDに対する事前バイアスを全体予測分布から分離するPriDeという,ラベルのない推論時間脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T17:44:56Z) - Electoral Forecasting Using a Novel Temporal Attenuation Model:
Predicting the US Presidential Elections [91.3755431537592]
予備選別世論調査データを用いて予測精度を向上させる新しいマクロスケール時間減衰(TA)モデルを開発した。
我々の仮説は、世論調査を公表するタイミングは、特に選挙直前の世論の変動に重要な役割を果たす、というものである。
我々は,48年間の平均予測誤差2.8-3.28点を蓄積するTAモデルの2つの異なる実装を提案する。
論文 参考訳(メタデータ) (2020-04-30T09:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。