論文の概要: Probing Politico-Economic Bias in Multilingual Large Language Models: A Cultural Analysis of Low-Resource Pakistani Languages
- arxiv url: http://arxiv.org/abs/2506.00068v1
- Date: Thu, 29 May 2025 15:15:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.183088
- Title: Probing Politico-Economic Bias in Multilingual Large Language Models: A Cultural Analysis of Low-Resource Pakistani Languages
- Title(参考訳): 多言語大言語モデルにおける政治経済バイアスの探索:低資源パキスタン語の文化的分析
- Authors: Afrozah Nadeem, Mark Dras, Usman Naseem,
- Abstract要約: 本稿では、パキスタンで話されている5つの低リソース言語を対象とした、13の大規模言語モデル(LLM)における政治的バイアスの体系的分析について述べる。
本手法は、経済(右派)と社会(リバタリアン・権威主義)の軸間の政治的指向の定量的評価と、内容、スタイル、強調を通じてのフレーミングの質的分析とを組み合わせる。
その結果, LLMは欧米の訓練データの影響を反映しながら, リベラル左派と概ね一致しているが, 地域言語における権威主義的フレーミングへの顕著な変化がみられた。
- 参考スコア(独自算出の注目度): 6.5137518437747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly shaping public discourse, yet their politico-economic biases remain underexamined in non-Western and low-resource multilingual contexts. This paper presents a systematic analysis of political bias in 13 state-of-the-art LLMs across five low-resource languages spoken in Pakistan: Urdu, Punjabi, Sindhi, Balochi, and Pashto. We propose a novel framework that integrates an adapted Political Compass Test (PCT) with a multi-level framing analysis. Our method combines quantitative assessment of political orientation across economic (left-right) and social (libertarian-authoritarian) axes with qualitative analysis of framing through content, style, and emphasis. We further contextualize this analysis by aligning prompts with 11 key socio-political themes relevant to Pakistani society. Our results reveal that LLMs predominantly align with liberal-left values, echoing Western training data influences, but exhibit notable shifts toward authoritarian framing in regional languages, suggesting strong cultural modulation effects. We also identify consistent model-specific bias signatures and language-conditioned variations in ideological expression. These findings show the urgent need for culturally grounded, multilingual bias auditing frameworks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、公衆の言説をますます形作っているが、その政治的・経済的偏見は、非西洋的・低資源的多言語的文脈において過小評価されている。
本稿では、パキスタンで話されている5つの低リソース言語(ウルドゥー語、パンジャービ語、シンディー語、バロチ語、パシュトー語)における13の最先端LLMにおける政治的偏見を体系的に分析する。
適応型政治コンパステスト(PCT)とマルチレベルフレーミング分析を統合する新しいフレームワークを提案する。
本手法は、経済(右派)と社会(リバタリアン・権威主義)の軸間の政治的指向の定量的評価と、内容、スタイル、強調を通じてのフレーミングの質的分析とを組み合わせる。
我々は、パキスタン社会に関連する11の社会政治テーマにプロンプトを合わせることで、この分析をさらに文脈化する。
その結果, LLMは欧米の訓練データの影響を反映し, リベラル左派と概ね一致しているが, 地域言語における権威主義的フレーミングへの顕著な変化を示し, 文化的変化の強い影響が示唆された。
また、イデオロギー表現における一貫したモデル固有のバイアスシグネチャと言語条件のバリエーションも同定する。
これらの結果から,文化的基盤を持つ多言語バイアス監査フレームワークの緊急ニーズが示唆された。
関連論文リスト
- KOKKAI DOC: An LLM-driven framework for scaling parliamentary representatives [0.0]
本稿では,国会議員の政治問題スタンスを正確にスケールするLLM主導の枠組みを紹介する。
先進的な自然言語処理技術と大規模言語モデルを活用することにより,提案手法は従来のアプローチを洗練・強化する。
この枠組みには,(1)要約による議会演説の消音,よりクリーンで一貫した意見埋め込み,(2)議員の言論要約からの政治的論争の軸の自動抽出,(3)党の立場の経時的変化を追及するダイアクロニック分析,の3つの主要な革新が含まれている。
論文 参考訳(メタデータ) (2025-05-11T21:03:53Z) - Language-Dependent Political Bias in AI: A Study of ChatGPT and Gemini [0.0]
本研究では,大規模言語モデルの政治的傾向と問合せ言語による分化の存在について検討する。
ChatGPTとGeminiは、14の異なる言語を使用して政治的軸検を受けた。
比較分析の結果、ジェミニはChatGPTに比べてリベラルで左翼の傾向が顕著であった。
論文 参考訳(メタデータ) (2025-04-08T21:13:01Z) - Mapping Geopolitical Bias in 11 Large Language Models: A Bilingual, Dual-Framing Analysis of U.S.-China Tensions [2.8202443616982884]
本研究は,11大言語モデル(LLM)における地政学的バイアスを系統的に解析する。
モデル出力のイデオロギー的傾きを検出するために,19,712個のプロンプトを作成した。
米国をベースとしたモデルは、主に米国支持の姿勢を好んでおり、一方中国のモデルでは、中国支持の偏見が顕著であった。
論文 参考訳(メタデータ) (2025-03-31T03:38:17Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。