論文の概要: A Cautionary Tale About "Neutrally" Informative AI Tools Ahead of the 2025 Federal Elections in Germany
- arxiv url: http://arxiv.org/abs/2502.15568v1
- Date: Fri, 21 Feb 2025 16:30:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:10:41.448681
- Title: A Cautionary Tale About "Neutrally" Informative AI Tools Ahead of the 2025 Federal Elections in Germany
- Title(参考訳): ドイツにおける2025年の連邦選挙に先立ち、"Neutrally"インフォーマティブなAIツールについて
- Authors: Ina Dormuth, Sven Franke, Marlies Hafer, Tim Katzke, Alexander Marx, Emmanuel Müller, Daniel Neider, Markus Pauly, Jérôme Rutinowski,
- Abstract要約: 我々は、客観的な政治的情報の提供において、AIベースのVoting Advice Applications(VAA)と大規模言語モデル(LLM)の信頼性を検討する。
我々の分析は、Wale-O-Matの38の文に対する党の反応との比較に基づいている。
- 参考スコア(独自算出の注目度): 41.972629376586035
- License:
- Abstract: In this study, we examine the reliability of AI-based Voting Advice Applications (VAAs) and large language models (LLMs) in providing objective political information. Our analysis is based upon a comparison with party responses to 38 statements of the Wahl-O-Mat, a well-established German online tool that helps inform voters by comparing their views with political party positions. For the LLMs, we identify significant biases. They exhibit a strong alignment (over 75% on average) with left-wing parties and a substantially lower alignment with center-right (smaller 50%) and right-wing parties (around 30%). Furthermore, for the VAAs, intended to objectively inform voters, we found substantial deviations from the parties' stated positions in Wahl-O-Mat: While one VAA deviated in 25% of cases, another VAA showed deviations in more than 50% of cases. For the latter, we even observed that simple prompt injections led to severe hallucinations, including false claims such as non-existent connections between political parties and right-wing extremist ties.
- Abstract(参考訳): 本研究では,AIベースのVoting Advice Applications (VAA) と大規模言語モデル (LLM) による客観的な政治的情報提供の信頼性について検討する。
我々の分析は、政党の意見と政党の立場を比較することで有権者に情報を提供する、しっかりと確立されたドイツのオンラインツールであるWale-O-Matの38の声明との比較に基づいている。
LLMでは,有意な偏見が認められた。
左派(平均75%以上)、右派(50%以下)、右派(約30%)とほぼ一致しない。
さらに、投票者の客観的な情報提供を目的としたVAAでは、Wale-O-Matの政党の立場から、実質的な偏差がみられた: 25%のケースでVAAがずれた一方、50%以上のケースでは別のVAAが偏差を示した。
後者については、政党間の非存在関係や右派過激派関係などの虚偽の主張など、単純な即発注射が深刻な幻覚を招いたことも見いだした。
関連論文リスト
- Leveraging AI and Sentiment Analysis for Forecasting Election Outcomes in Mauritius [0.0]
本研究では,2024年のモーリシャス選挙に焦点をあて,AIによる感情分析を選挙結果を予測する新しいツールとして活用することを検討する。
我々は、主要な2つの政党であるL'Alliance LepepとL'Alliance Du Changementに対するメディアの感情を分析する。
調査結果は、肯定的なメディアの感情が、予測された選挙利益と強く相関していることを示し、メディアが大衆の認識を形作る役割を強調している。
論文 参考訳(メタデータ) (2024-10-28T09:21:15Z) - When Neutral Summaries are not that Neutral: Quantifying Political Neutrality in LLM-Generated News Summaries [0.0]
本研究では, LLMの政治的中立性を定量化するための新たな視点を示す。
我々は、中絶、銃規制/権利、医療、移民、LGBTQ+の権利という、現在のアメリカの政治における5つの迫る問題について検討する。
我々の研究は、いくつかのよく知られたLLMにおいて、民主的偏見に対する一貫した傾向を明らかにした。
論文 参考訳(メタデータ) (2024-10-13T19:44:39Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Who Would Chatbots Vote For? Political Preferences of ChatGPT and Gemini in the 2024 European Union Elections [0.0]
この研究は、これらの生成人工知能(AI)システムにより、27のEU加盟国にまたがる欧州議会で代表される政党の評価に焦点を当てた。
Geminiはほとんど政治的な質問に答えることを拒んだが、ChatGPTは一貫して評価した。
調査では、欧州統合に対する態度や民主的価値観に対する認識など、評価に影響を及ぼす重要な要因を特定した。
論文 参考訳(メタデータ) (2024-09-01T13:40:13Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Investigating LLMs as Voting Assistants via Contextual Augmentation: A Case Study on the European Parliament Elections 2024 [22.471701390730185]
2024年の欧州議会議員選挙では、LLMsがVoting Advice Applications (VAA)として利用できるかどうかを調査している。
我々は、MISTRALとMIXTRALモデルを評価し、最新の「EUとI」投票支援アンケートに基づいて、政党の姿勢を予測する際の精度を評価した。
その結果、MIXTRALは平均82%の精度で精度が高く、異なる政治集団間で大きな性能差があることがわかった。
論文 参考訳(メタデータ) (2024-07-11T13:29:28Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - Right and left, partisanship predicts (asymmetric) vulnerability to
misinformation [71.46564239895892]
我々は、Twitter上でのニュース共有行動を研究することにより、パルチザン、エコーチャンバー、およびオンライン誤情報に対する脆弱性の関係を分析する。
誤情報に対する脆弱性は、左派と右派の両方のユーザーの党派の影響を強く受けている。
論文 参考訳(メタデータ) (2020-10-04T01:36:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。