論文の概要: Artificial Authority: From Machine Minds to Political Alignments. An Experimental Analysis of Democratic and Autocratic Biases in Large-Language Models
- arxiv url: http://arxiv.org/abs/2509.25286v2
- Date: Sat, 04 Oct 2025 16:30:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:10.948816
- Title: Artificial Authority: From Machine Minds to Political Alignments. An Experimental Analysis of Democratic and Autocratic Biases in Large-Language Models
- Title(参考訳): 大規模言語モデルにおける民主的・独裁的バイアスの実験的解析
- Authors: Natalia Ożegalska-Łukasik, Szymon Łukasik,
- Abstract要約: 政治的信念は、歴史的、文化的、制度的な文脈を反映して、国によって大きく異なる。
生成的人工知能の出現は、大規模なコーパスで訓練された政治宇宙エージェントに新しいエージェントを導入する。
本稿では,Large Language Models (LLM) が,民主的・独裁的世界観と整合性を示すか否かを考察する。
- 参考スコア(独自算出の注目度): 0.11853986437641513
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Political beliefs vary significantly across different countries, reflecting distinct historical, cultural, and institutional contexts. These ideologies, ranging from liberal democracies to rigid autocracies, influence human societies, as well as the digital systems that are constructed within those societies. The advent of generative artificial intelligence, particularly Large Language Models (LLMs), introduces new agents in the political space-agents trained on massive corpora that replicate and proliferate socio-political assumptions. This paper analyses whether LLMs display propensities consistent with democratic or autocratic world-views. We validate this insight through experimental tests in which we experiment with the leading LLMs developed across disparate political contexts, using several existing psychometric and political orientation measures. The analysis is based on both numerical scoring and qualitative analysis of the models' responses. Findings indicate high model-to-model variability and a strong association with the political culture of the country in which the model was developed. These findings highlight the need for more detailed examination of the socio-political dimensions embedded within AI systems.
- Abstract(参考訳): 政治的信念は、歴史的、文化的、制度的な文脈を反映して、国によって大きく異なる。
これらのイデオロギーは、リベラルな民主主義から厳格な自治まで、人間の社会やそれらの社会内で構築されるデジタルシステムに影響を与えている。
生成的人工知能の出現、特にLarge Language Models (LLMs) は、社会的・政治的仮定を再現し、増殖させる巨大なコーパスで訓練された政治宇宙エージェントに新しいエージェントを導入する。
本稿では,LLMが民主的・独裁的世界観と整合性を示すか否かを考察する。
我々は,この知見を,様々な政治的文脈で発達した指導的LLMの実験実験を通じて検証し,既存の心理学的・政治的指向の指標を用いて検証した。
解析はモデル応答の数値的なスコアリングと定性的な解析の両方に基づいている。
その結果, モデル・ツー・モデルの多様性が高く, モデルが発達した国の政治文化と強い結びつきがあることが示唆された。
これらの知見は、AIシステムに埋め込まれた社会的・政治的側面をより詳細に調べる必要性を浮き彫りにしている。
関連論文リスト
- Political Ideology Shifts in Large Language Models [6.062377561249039]
大規模言語モデル(LLM)における合成ペルソナの導入がイデオロギー表現に与える影響について検討する。
分析の結果, より大型のモデルでは, より広範かつ暗黙的なイデオロギー的カバレッジが示され, (ii) 明示的なイデオロギー的手がかりへの感受性は, 規模に応じて増大し, (iii) モデルでは左リバタリアン的プライミングよりも右権威主義に強く反応し, (iv) ペルソナ記述における主題的内容はイデオロギー的変化を誘発し, サイズを増幅することがわかった。
論文 参考訳(メタデータ) (2025-08-22T00:16:38Z) - Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Aligning AI with Public Values: Deliberation and Decision-Making for Governing Multimodal LLMs in Political Video Analysis [48.14390493099495]
AIモデルが政治的トピックにどう対処すべきかは議論されているが、依然として困難であり、より優れたガバナンスが必要である。
本稿では、政治的に敏感なビデオを中心に、個人的および集団的な議論を通じて、大規模言語モデルのガバナンスについて検討する。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。