論文の概要: Uncovering Political Bias in Large Language Models using Parliamentary Voting Records
- arxiv url: http://arxiv.org/abs/2601.08785v1
- Date: Tue, 13 Jan 2026 18:18:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.325851
- Title: Uncovering Political Bias in Large Language Models using Parliamentary Voting Records
- Title(参考訳): 議会投票記録を用いた大規模言語モデルにおける政治的バイアスの発見
- Authors: Jieying Chen, Karen de Jong, Andreas Poole, Jan Burakowski, Elena Elderson Nosti, Joep Windt, Chendi Wang,
- Abstract要約: 本稿では、政治バイアスベンチマークを構築するための一般的な手法を紹介する。
我々はこの方法論を3つの国家ケーススタディでインスタンス化する。
LLM行動におけるイデオロギー的傾向と政治的実体バイアスを評価する。
- 参考スコア(独自算出の注目度): 2.272052150526026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) become deeply embedded in digital platforms and decision-making systems, concerns about their political biases have grown. While substantial work has examined social biases such as gender and race, systematic studies of political bias remain limited, despite their direct societal impact. This paper introduces a general methodology for constructing political bias benchmarks by aligning model-generated voting predictions with verified parliamentary voting records. We instantiate this methodology in three national case studies: PoliBiasNL (2,701 Dutch parliamentary motions and votes from 15 political parties), PoliBiasNO (10,584 motions and votes from 9 Norwegian parties), and PoliBiasES (2,480 motions and votes from 10 Spanish parties). Across these benchmarks, we assess ideological tendencies and political entity bias in LLM behavior. As part of our evaluation framework, we also propose a method to visualize the ideology of LLMs and political parties in a shared two-dimensional CHES (Chapel Hill Expert Survey) space by linking their voting-based positions to the CHES dimensions, enabling direct and interpretable comparisons between models and real-world political actors. Our experiments reveal fine-grained ideological distinctions: state-of-the-art LLMs consistently display left-leaning or centrist tendencies, alongside clear negative biases toward right-conservative parties. These findings highlight the value of transparent, cross-national evaluation grounded in real parliamentary behavior for understanding and auditing political bias in modern LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)がデジタルプラットフォームや意思決定システムに深く浸透するにつれ、彼らの政治的偏見に対する懸念が高まっている。
実質的な研究は、性別や人種などの社会的偏見を調べてきたが、政治的偏見の体系的な研究は、直接の社会的影響にもかかわらず、依然として限られている。
本稿では、モデル生成による投票予測と検証された投票記録を整合させて、政治バイアスベンチマークを構築するための一般的な手法を提案する。
我々は、この方法論を3つの全国的ケーススタディとして、PoliBiasNL(2,701件)、PoliBiasNO(10,584件)、PoliBiasES(2,480件)の3つを挙げる。
これらのベンチマークを通して、LLMの行動におけるイデオロギー的傾向と政治的実体バイアスを評価する。
評価枠組みの一環として, 投票ベースの位置をCHES次元にリンクさせることで, モデルと現実の政治アクター間の直接的・解釈可能な比較を可能にすることによって, 共有された2次元CHES空間におけるLLMと政党のイデオロギーを可視化する手法も提案する。
最先端のLCMは、常に左利き傾向または中心的な傾向を示し、右保守党に対する明確な負の偏りを呈する。
これらの知見は、近代LLMにおける政治的偏見の理解と監査のための実際の議会行動に根ざした透明で国家横断的な評価の価値を浮き彫りにした。
関連論文リスト
- Benchmarking Gender and Political Bias in Large Language Models [37.192287982246526]
政治に敏感な文脈で大規模言語モデル(LLM)を評価するための新しいベンチマークであるEuroParlVoteを紹介する。
欧州議会の討論演説を投票結果のロールコールに結び付け、欧州議会(MEP)の各委員の豊かな人口統計メタデータを含む。
EuroParlVoteを用いて、性別分類と投票予測という2つのタスクで最先端のLCMを評価し、一貫したバイアスパターンを明らかにします。
論文 参考訳(メタデータ) (2025-09-07T18:23:30Z) - Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - KOKKAI DOC: An LLM-driven framework for scaling parliamentary representatives [0.0]
本稿では,国会議員の政治問題スタンスを正確にスケールするLLM主導の枠組みを紹介する。
先進的な自然言語処理技術と大規模言語モデルを活用することにより,提案手法は従来のアプローチを洗練・強化する。
この枠組みには,(1)要約による議会演説の消音,よりクリーンで一貫した意見埋め込み,(2)議員の言論要約からの政治的論争の軸の自動抽出,(3)党の立場の経時的変化を追及するダイアクロニック分析,の3つの主要な革新が含まれている。
論文 参考訳(メタデータ) (2025-05-11T21:03:53Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。