論文の概要: Political Alignment in Large Language Models: A Multidimensional Audit of Psychometric Identity and Behavioral Bias
- arxiv url: http://arxiv.org/abs/2601.06194v1
- Date: Thu, 08 Jan 2026 03:26:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.665405
- Title: Political Alignment in Large Language Models: A Multidimensional Audit of Psychometric Identity and Behavioral Bias
- Title(参考訳): 大規模言語モデルにおける政治的アライメント:心理学的アイデンティティと行動バイアスの多次元的監査
- Authors: Adib Sakhawat, Tahsin Islam, Takia Farhin, Syed Rifat Raiyan, Hasan Mahmud, Md Kamrul Hasan,
- Abstract要約: 本研究は,26の著名な大言語モデル(LLM)の社会技術監査について述べる。
アライメント信号は、ノイズではなく、一貫したアーキテクチャ特性であるように見える。
モデルは体系的な「中心シフト」を示し、しばしば中立の項目を左派として分類する。
- 参考スコア(独自算出の注目度): 2.464003792743989
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As large language models (LLMs) are increasingly integrated into social decision-making, understanding their political positioning and alignment behavior is critical for safety and fairness. This study presents a sociotechnical audit of 26 prominent LLMs, triangulating their positions across three psychometric inventories (Political Compass, SapplyValues, 8 Values) and evaluating their performance on a large-scale news labeling task ($N \approx 27{,}000$). Our results reveal a strong clustering of models in the Libertarian-Left region of the ideological space, encompassing 96.3% of the cohort. Alignment signals appear to be consistent architectural traits rather than stochastic noise ($η^2 > 0.90$); however, we identify substantial discrepancies in measurement validity. In particular, the Political Compass exhibits a strong negative correlation with cultural progressivism ($r=-0.64$) when compared against multi-axial instruments, suggesting a conflation of social conservatism with authoritarianism in this context. We further observe a significant divergence between open-weights and closed-source models, with the latter displaying markedly higher cultural progressivism scores ($p<10^{-25}$). In downstream media analysis, models exhibit a systematic "center-shift," frequently categorizing neutral articles as left-leaning, alongside an asymmetric detection capability in which "Far Left" content is identified with greater accuracy (19.2%) than "Far Right" content (2.0%). These findings suggest that single-axis evaluations are insufficient and that multidimensional auditing frameworks are necessary to characterize alignment behavior in deployed LLMs. Our code and data will be made public.
- Abstract(参考訳): 大規模言語モデル(LLM)が社会的意思決定にますます統合されるにつれて、その政治的位置決めとアライメント行動を理解することは、安全性と公正性にとって重要である。
本研究は,26の著名なLCMの社会技術監査を行い,3つのサイコメトリックな在庫(Political Compass, SapplyValues, 8 Values)と大規模ニュースラベリングタスク(N \approx 27{,}000$)による評価を行った。
以上の結果から,イデオロギー空間のリベルタリアン・レフト地域では,コホートの96.3%を包含する強力なモデル群が得られた。
配向信号は確率ノイズ(η^2 > 0.90$)ではなく、一貫した構造特性であるように見えるが、測定精度にはかなりの差がある。
特に、政治コンパスは、多軸楽器と比較した場合、文化的進歩主義(r=-0.64$)と強い負の相関を示し、この文脈における社会的保守主義と権威主義との融合を示唆している。
オープン・ウェイトとクローズド・ソース・モデルの間にはさらに大きな違いが見られ、後者は文化的進歩主義のスコアが著しく高い(p<10^{-25}$)。
下流メディア分析では、モデルは体系的な「中心シフト」を示し、しばしば中性物品を左利きとして分類し、「左利き」のコンテンツが「右利き」のコンテンツ(2.0%)よりも高い精度(19.2%)で識別される非対称な検出能力を持つ。
これらの結果から, 単一軸評価は不十分であり, 多次元監査フレームワークは, 展開LDMにおけるアライメントの挙動を特徴づけるために必要であることが示唆された。
私たちのコードとデータは公開されます。
関連論文リスト
- Latent Topic Synthesis: Leveraging LLMs for Electoral Ad Analysis [51.95395936342771]
ラベルなしコーパスから解釈可能なトピック分類を自動生成するエンドツーエンドフレームワークを提案する。
われわれはこの枠組みを、2024年アメリカ合衆国大統領選挙の1ヶ月前のMeta政治広告の大規模なコーパスに適用する。
提案手法は,潜在談話構造を明らかにし,意味的に豊かなトピックラベルを合成し,モラル・フレーミングの次元でトピックを注釈する。
論文 参考訳(メタデータ) (2025-10-16T20:30:20Z) - Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - Analyzing Political Bias in LLMs via Target-Oriented Sentiment Classification [4.352835414206441]
LLMによって符号化された政治的バイアスは下流のアプリケーションに有害な影響を及ぼす可能性がある。
我々は,LLMの感情予測が同一文の目的語と異なるという観察を活用する新しいアプローチを提案する。
我々は、人口統計学的および政治的に多様な政治家名を450の政治文に挿入し、6つの広く話される言語で7つのモデルを用いて目標志向の感情を予測する。
論文 参考訳(メタデータ) (2025-05-26T10:01:24Z) - Testing Conviction: An Argumentative Framework for Measuring LLM Political Stability [3.84754844062131]
大規模言語モデルは政治的議論を形成するが、挑戦された時に矛盾する反応を示す。
反応を安定的あるいは実演的なイデオロギー的位置決めとして分類する。
我々は、イデオロギーの安定性がトピック依存であることを示し、モノリシックなLCMイデオロギーの概念に挑戦する。
論文 参考訳(メタデータ) (2025-04-23T19:00:39Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Mapping and Influencing the Political Ideology of Large Language Models using Synthetic Personas [5.237116285113809]
政治コンパステスト(PCT)を用いたペルソナに基づく大規模言語モデルの政治的分布をマッピングする。
実験の結果, 合成ペルソナは左リバタリアン・クアドラントに主に集合しており, 明示的なイデオロギー記述子による刺激による応答性の変化を示すモデルが得られた。
すべてのモデルは、右権威主義的位置への顕著なシフトを示すが、左リバタリアン位置へのより限定的なシフトを示し、モデルトレーニングの固有のバイアスを反映するイデオロギー的操作に対する非対称な反応を示唆している。
論文 参考訳(メタデータ) (2024-12-19T13:36:18Z) - Uncertainty in Language Models: Assessment through Rank-Calibration [65.10149293133846]
言語モデル(LM)は、自然言語生成において有望な性能を示している。
与えられた入力に応答する際の不確実性を正確に定量化することは重要である。
我々は、LMの確実性と信頼性を評価するために、Rank$-$Calibration$と呼ばれる斬新で実用的なフレームワークを開発する。
論文 参考訳(メタデータ) (2024-04-04T02:31:05Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。