論文の概要: Framing Political Bias in Multilingual LLMs Across Pakistani Languages
- arxiv url: http://arxiv.org/abs/2506.00068v2
- Date: Thu, 31 Jul 2025 04:41:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 15:10:45.079584
- Title: Framing Political Bias in Multilingual LLMs Across Pakistani Languages
- Title(参考訳): パキスタン語にまたがる多言語LLMにおける政治的バイアスの分別
- Authors: Afrozah Nadeem, Mark Dras, Usman Naseem,
- Abstract要約: パキスタン語5言語にわたる13の最先端の大規模言語モデル(LLM)における政治的偏見の体系的評価について述べる。
我々の枠組みは、文化的に適応した政治コンパステスト(PCT)とマルチレベルフレーミング分析を統合している。
その結果, LLMは欧米の訓練データと一致したリベラル左派指向を主に反映しているが, 地域言語ではより権威主義的なフレーミングが見られることがわかった。
- 参考スコア(独自算出の注目度): 6.5137518437747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) increasingly shape public discourse, yet most evaluations of political and economic bias have focused on high-resource, Western languages and contexts. This leaves critical blind spots in low-resource, multilingual regions such as Pakistan, where linguistic identity is closely tied to political, religious, and regional ideologies. We present a systematic evaluation of political bias in 13 state-of-the-art LLMs across five Pakistani languages: Urdu, Punjabi, Sindhi, Pashto, and Balochi. Our framework integrates a culturally adapted Political Compass Test (PCT) with multi-level framing analysis, capturing both ideological stance (economic/social axes) and stylistic framing (content, tone, emphasis). Prompts are aligned with 11 socio-political themes specific to the Pakistani context. Results show that while LLMs predominantly reflect liberal-left orientations consistent with Western training data, they exhibit more authoritarian framing in regional languages, highlighting language-conditioned ideological modulation. We also identify consistent model-specific bias patterns across languages. These findings show the need for culturally grounded, multilingual bias auditing frameworks in global NLP.
- Abstract(参考訳): 大規模言語モデル(LLM)は公衆の会話をますます形作っているが、政治的・経済的偏見のほとんどの評価は、高資源、西洋語、文脈に焦点を当てている。
これはパキスタンのような低資源の多言語地域において重要な盲点を残しており、言語的アイデンティティは政治的、宗教的、地域的イデオロギーと密接に結びついている。
パキスタンの5つの言語(ウルドゥー語、パンジャービ語、シンディー語、パシュト語、バロチ語)にまたがる13の最先端のLLMにおいて、政治的偏見を体系的に評価する。
我々の枠組みは、文化的に適応した政治コンパステスト(PCT)と多段階フレーミング分析を統合し、イデオロギー的スタンス(経済・社会軸)とスタイル的フレーミング(コンテンツ、トーン、強調)の両方を捉える。
プロンプトはパキスタンの文脈に特有の11の社会政治的テーマと一致している。
その結果, LLMは欧米の訓練データと一致したリベラル左派指向を主に反映しているが, 言語条件のイデオロギー変調を強調して, 地域言語においてより権威主義的なフレーミングを示すことがわかった。
また、言語間で一貫したモデル固有のバイアスパターンを特定します。
これらの結果から,グローバルNLPにおける文化的基盤を持つ多言語バイアス監査フレームワークの必要性が示唆された。
関連論文リスト
- KOKKAI DOC: An LLM-driven framework for scaling parliamentary representatives [0.0]
本稿では,国会議員の政治問題スタンスを正確にスケールするLLM主導の枠組みを紹介する。
先進的な自然言語処理技術と大規模言語モデルを活用することにより,提案手法は従来のアプローチを洗練・強化する。
この枠組みには,(1)要約による議会演説の消音,よりクリーンで一貫した意見埋め込み,(2)議員の言論要約からの政治的論争の軸の自動抽出,(3)党の立場の経時的変化を追及するダイアクロニック分析,の3つの主要な革新が含まれている。
論文 参考訳(メタデータ) (2025-05-11T21:03:53Z) - Language-Dependent Political Bias in AI: A Study of ChatGPT and Gemini [0.0]
本研究では,大規模言語モデルの政治的傾向と問合せ言語による分化の存在について検討する。
ChatGPTとGeminiは、14の異なる言語を使用して政治的軸検を受けた。
比較分析の結果、ジェミニはChatGPTに比べてリベラルで左翼の傾向が顕著であった。
論文 参考訳(メタデータ) (2025-04-08T21:13:01Z) - Mapping Geopolitical Bias in 11 Large Language Models: A Bilingual, Dual-Framing Analysis of U.S.-China Tensions [2.8202443616982884]
本研究は,11大言語モデル(LLM)における地政学的バイアスを系統的に解析する。
モデル出力のイデオロギー的傾きを検出するために,19,712個のプロンプトを作成した。
米国をベースとしたモデルは、主に米国支持の姿勢を好んでおり、一方中国のモデルでは、中国支持の偏見が顕著であった。
論文 参考訳(メタデータ) (2025-03-31T03:38:17Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。