論文の概要: Multilingual Political Views of Large Language Models: Identification and Steering
- arxiv url: http://arxiv.org/abs/2507.22623v1
- Date: Wed, 30 Jul 2025 12:42:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.203511
- Title: Multilingual Political Views of Large Language Models: Identification and Steering
- Title(参考訳): 大規模言語モデルの多言語政治的視点:識別とステアリング
- Authors: Daniil Gurgurov, Katharina Trinley, Ivan Vykopal, Josef van Genabith, Simon Ostermann, Roberto Zamparelli,
- Abstract要約: 大規模言語モデル(LLM)は、日々のツールやアプリケーションでますます使われており、政治的見解への潜在的な影響に対する懸念が高まっている。
政治コンパステスト(Political Compass Test)を用いて,14言語にまたがる7つのモデルの評価を行った。
以上の結果から,より大きなモデルがリバタリアンと左の位置に一貫して移行し,言語やモデルファミリに有意な変化が認められた。
- 参考スコア(独自算出の注目度): 9.340686908318776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used in everyday tools and applications, raising concerns about their potential influence on political views. While prior research has shown that LLMs often exhibit measurable political biases--frequently skewing toward liberal or progressive positions--key gaps remain. Most existing studies evaluate only a narrow set of models and languages, leaving open questions about the generalizability of political biases across architectures, scales, and multilingual settings. Moreover, few works examine whether these biases can be actively controlled. In this work, we address these gaps through a large-scale study of political orientation in modern open-source instruction-tuned LLMs. We evaluate seven models, including LLaMA-3.1, Qwen-3, and Aya-Expanse, across 14 languages using the Political Compass Test with 11 semantically equivalent paraphrases per statement to ensure robust measurement. Our results reveal that larger models consistently shift toward libertarian-left positions, with significant variations across languages and model families. To test the manipulability of political stances, we utilize a simple center-of-mass activation intervention technique and show that it reliably steers model responses toward alternative ideological positions across multiple languages. Our code is publicly available at https://github.com/d-gurgurov/Political-Ideologies-LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)は、日々のツールやアプリケーションでますます使われており、政治的見解への潜在的な影響に対する懸念が高まっている。
以前の研究では、LLMはしばしば測定可能な政治的偏見を示しており、しばしばリベラルあるいは進歩的な立場に傾倒している。
既存の研究の多くは、限られたモデルと言語のみを評価し、アーキテクチャ、スケール、多言語設定における政治的偏見の一般化性に関するオープンな疑問を残している。
さらに、これらのバイアスをアクティブに制御できるかどうかを調べる研究はほとんどない。
本研究は,現代のオープンソース命令チューニング LLM における政治的指向性に関する大規模研究を通じて,これらのギャップに対処するものである。
LLaMA-3.1, Qwen-3, Aya-Expanseを含む7つのモデルについて,11の意味論的等価パラフレーズを用いた政治コンパステストを用いて,ロバストな測定を保証する。
以上の結果から,より大きなモデルがリバタリアンと左の位置に一貫して移行し,言語やモデルファミリに有意な変化が認められた。
政治姿勢の操作性をテストするため,簡単な中心活性化介入手法を用いて,複数の言語にまたがる代替イデオロギー的位置に対するモデル応答を確実に操ることを示す。
私たちのコードはhttps://github.com/d-gurgurov/Political-Ideologies-LLMsで公開されています。
関連論文リスト
- Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Mapping and Influencing the Political Ideology of Large Language Models using Synthetic Personas [5.237116285113809]
政治コンパステスト(PCT)を用いたペルソナに基づく大規模言語モデルの政治的分布をマッピングする。
実験の結果, 合成ペルソナは左リバタリアン・クアドラントに主に集合しており, 明示的なイデオロギー記述子による刺激による応答性の変化を示すモデルが得られた。
すべてのモデルは、右権威主義的位置への顕著なシフトを示すが、左リバタリアン位置へのより限定的なシフトを示し、モデルトレーニングの固有のバイアスを反映するイデオロギー的操作に対する非対称な反応を示唆している。
論文 参考訳(メタデータ) (2024-12-19T13:36:18Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。