論文の概要: Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models
- arxiv url: http://arxiv.org/abs/2506.12758v1
- Date: Sun, 15 Jun 2025 07:52:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.805458
- Title: Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models
- Title(参考訳): 民主的・権威主義的? : 大規模言語モデルにおける新たな政治的バイアス
- Authors: David Guzman Piedrahita, Irene Strauss, Bernhard Schölkopf, Rada Mihalcea, Zhijing Jin,
- Abstract要約: 本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
- 参考スコア(独自算出の注目度): 72.89977583150748
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As Large Language Models (LLMs) become increasingly integrated into everyday life and information ecosystems, concerns about their implicit biases continue to persist. While prior work has primarily examined socio-demographic and left--right political dimensions, little attention has been paid to how LLMs align with broader geopolitical value systems, particularly the democracy--authoritarianism spectrum. In this paper, we propose a novel methodology to assess such alignment, combining (1) the F-scale, a psychometric tool for measuring authoritarian tendencies, (2) FavScore, a newly introduced metric for evaluating model favorability toward world leaders, and (3) role-model probing to assess which figures are cited as general role-models by LLMs. We find that LLMs generally favor democratic values and leaders, but exhibit increases favorability toward authoritarian figures when prompted in Mandarin. Further, models are found to often cite authoritarian figures as role models, even outside explicit political contexts. These results shed light on ways LLMs may reflect and potentially reinforce global political ideologies, highlighting the importance of evaluating bias beyond conventional socio-political axes. Our code is available at: https://github.com/irenestrauss/Democratic-Authoritarian-Bias-LLMs
- Abstract(参考訳): 大きな言語モデル(LLM)が日々の生活や情報エコシステムにますます統合されるにつれて、それらの暗黙のバイアスに対する懸念は持続し続けています。
以前の研究は、主に社会デマトグラフィーと左翼の政治的側面を調査してきたが、LLMがより広い地政学的価値体系、特に民主主義-権威主義のスペクトルとどのように一致しているかはほとんど注目されていない。
本稿では,(1)権威主義的傾向を測定するための心理測定ツールであるF-scale,(2)世界リーダーに対するモデル優遇性を評価するための新たな指標であるFavScore,(3)LLMによる一般的な役割モデルとしてどの人物が引用されるかを評価するロールモデル探索を組み合わせた,新たなアライメント評価手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
さらに、モデルはしばしば権威主義的な人物をロールモデルとして引用している。
これらの結果は、LLMが世界の政治イデオロギーを反映し、強化する可能性を秘めており、従来の社会政治の軸を超えてバイアスを評価することの重要性を強調している。
私たちのコードは、https://github.com/irenestrauss/Democratic-Authoritarian-Bias-LLMsで利用可能です。
関連論文リスト
- Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Large Language Models Are Democracy Coders with Attitudes [0.07448098004925983]
V-Demプロジェクトの民主主義指標のコーディングには,最先端の2つのLarge Language Modelを使用します。
膨大な量の情報にアクセスすることで、これらのモデルは、人間が持つ可能性のある認知バイアスなしに、レジームの多くの「ソフト」特性を評価することができるかもしれない。
これらのモデルが人間の評価から逸脱した場合、それらは異なるが一貫した方法で実施されることを示す。
論文 参考訳(メタデータ) (2025-03-28T10:43:41Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。