論文の概要: Hidden Persuaders: LLMs' Political Leaning and Their Influence on Voters
- arxiv url: http://arxiv.org/abs/2410.24190v1
- Date: Thu, 31 Oct 2024 17:51:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:03:35.188782
- Title: Hidden Persuaders: LLMs' Political Leaning and Their Influence on Voters
- Title(参考訳): 隠れた説得者:LLMの政治思想と有権者への影響
- Authors: Yujin Potter, Shiyang Lai, Junsol Kim, James Evans, Dawn Song,
- Abstract要約: 我々はまず、共和党候補よりも民主党候補を優先する18のオープン・クローズド・ウェイト LLM の政治的好意を示す。
教育訓練モデルでは、民主党候補への傾きがより顕著になることを示す。
さらに、米国登録有権者935名を対象に、LLMが有権者選択に与える影響について検討する。
- 参考スコア(独自算出の注目度): 42.80511959871216
- License:
- Abstract: How could LLMs influence our democracy? We investigate LLMs' political leanings and the potential influence of LLMs on voters by conducting multiple experiments in a U.S. presidential election context. Through a voting simulation, we first demonstrate 18 open- and closed-weight LLMs' political preference for a Democratic nominee over a Republican nominee. We show how this leaning towards the Democratic nominee becomes more pronounced in instruction-tuned models compared to their base versions by analyzing their responses to candidate-policy related questions. We further explore the potential impact of LLMs on voter choice by conducting an experiment with 935 U.S. registered voters. During the experiments, participants interacted with LLMs (Claude-3, Llama-3, and GPT-4) over five exchanges. The experiment results show a shift in voter choices towards the Democratic nominee following LLM interaction, widening the voting margin from 0.7% to 4.6%, even though LLMs were not asked to persuade users to support the Democratic nominee during the discourse. This effect is larger than many previous studies on the persuasiveness of political campaigns, which have shown minimal effects in presidential elections. Many users also expressed a desire for further political interaction with LLMs. Which aspects of LLM interactions drove these shifts in voter choice requires further study. Lastly, we explore how a safety method can make LLMs more politically neutral, while leaving some open questions.
- Abstract(参考訳): LLMは私たちの民主主義にどのように影響を与えるのか?
LLMsの政治的傾きとLLMsが有権者に与える影響について、アメリカ合衆国大統領選挙の文脈で複数の実験を行うことで検討する。
投票シミュレーションを通じて、共和党候補よりも民主党候補を優先する18のオープン・クローズド・ウェイト LLM の政治的選好を最初に示した。
本研究は,民主党候補に傾倒する傾向が,候補者・政治関連質問に対する回答を分析した結果,基本モデルよりも指導指導モデルの方が顕著になることを示す。
さらに、米国登録有権者935名を対象に、LLMが有権者選択に与える影響について検討する。
実験中、参加者は5回の交換でLLM(Claude-3, Llama-3, GPT-4)と相互作用した。
実験の結果、LCMの相互作用により民主党候補への投票者選択が変化し、投票率は0.7%から4.6%に拡大した。
この効果は、大統領選挙において最小限の効果を示した政治キャンペーンの説得力に関する多くの以前の研究よりも大きい。
また、多くのユーザーはLLMとのさらなる政治的相互作用を望んでいた。
LLMの相互作用のどの側面がこれらの投票者の選択に変化をもたらしたかは、さらなる研究が必要である。
最後に,LLMの政治的中立性を高めるための安全性手法について検討する。
関連論文リスト
- When Neutral Summaries are not that Neutral: Quantifying Political Neutrality in LLM-Generated News Summaries [0.0]
本研究では, LLMの政治的中立性を定量化するための新たな視点を示す。
我々は、中絶、銃規制/権利、医療、移民、LGBTQ+の権利という、現在のアメリカの政治における5つの迫る問題について検討する。
我々の研究は、いくつかのよく知られたLLMにおいて、民主的偏見に対する一貫した傾向を明らかにした。
論文 参考訳(メタデータ) (2024-10-13T19:44:39Z) - Can LLMs advance democratic values? [0.0]
LLMは、形式的な民主的意思決定プロセスから明確に守るべきである、と我々は主張する。
非公式な公共の場を強化するのに役立てることができる。
論文 参考訳(メタデータ) (2024-10-10T23:24:06Z) - GermanPartiesQA: Benchmarking Commercial Large Language Models for Political Bias and Sycophancy [20.06753067241866]
我々は,OpenAI, Anthropic, Cohereの6つのLDMのアライメントをドイツ政党の立場と比較した。
我々は、主要なドイツの国会議員のベンチマークデータと社会デマグラフィーデータを用いて、迅速な実験を行う。
論文 参考訳(メタデータ) (2024-07-25T13:04:25Z) - Vox Populi, Vox AI? Using Language Models to Estimate German Public Opinion [45.84205238554709]
我々は,2017年ドイツ縦断選挙研究の回答者の個人特性と一致するペルソナの合成サンプルを生成した。
我々は,LSM GPT-3.5に対して,各回答者の投票選択を予測し,これらの予測を調査に基づく推定と比較する。
GPT-3.5は市民の投票選択を正確に予測せず、緑の党と左派に偏見を呈している。
論文 参考訳(メタデータ) (2024-07-11T14:52:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - When Do LLMs Need Retrieval Augmentation? Mitigating LLMs' Overconfidence Helps Retrieval Augmentation [66.01754585188739]
大規模言語モデル(LLM)は、特定の知識を持っていないことを知るのが困難であることが判明した。
Retrieval Augmentation (RA)はLLMの幻覚を緩和するために広く研究されている。
本稿では,LLMの知識境界に対する認識を高めるためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2024-02-18T04:57:19Z) - The Political Preferences of LLMs [0.0]
私は、テストテイカーの政治的嗜好を特定するために、11の政治的指向テストを実行し、24の最先端の会話型LLMを実行します。
ほとんどの会話型LLMは、ほとんどの政治的テスト機器によって、中心の視点の好みを示すものとして認識される応答を生成する。
LLMは、スーパービジョンファインチューニングを通じて、政治スペクトルの特定の場所に向けて操れることを実証します。
論文 参考訳(メタデータ) (2024-02-02T02:43:10Z) - LLM Voting: Human Choices and AI Collective Decision Making [0.0]
本稿では,大規模言語モデル (LLM) の投票行動,特に GPT-4 と LLaMA-2 について検討する。
投票方法の選択と提示順序がLLM投票結果に影響を及ぼすことがわかった。
さまざまな人格がこれらのバイアスの一部を減らし、人間の選択との整合性を高めることができることがわかった。
論文 参考訳(メタデータ) (2024-01-31T14:52:02Z) - See the Unseen: Better Context-Consistent Knowledge-Editing by Noises [73.54237379082795]
知識編集が大規模言語モデル(LLM)の知識を更新
既存の作業はこの特性を無視し、編集には一般化が欠けている。
実験により、異なる文脈がLLMに与える影響は、同じ知識を思い出す際にガウス的な分布に従うことが判明した。
論文 参考訳(メタデータ) (2024-01-15T09:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。