論文の概要: Politically Speaking: LLMs on Changing International Affairs
- arxiv url: http://arxiv.org/abs/2510.24582v1
- Date: Tue, 28 Oct 2025 16:15:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:37.268898
- Title: Politically Speaking: LLMs on Changing International Affairs
- Title(参考訳): 政治を語る, LLMs on Changing International Affairs(英語)
- Authors: Xuenan Cao, Wai Kei Chung, Ye Zhao, Lidia Mengyuan Zhou,
- Abstract要約: LLMが生成した出力は、明示的な異なる役割割り当てにもかかわらず、どの程度収まるのか?
批判の中心は、中国、イラン、ロシア、米国の政治について話す際、欧米で使われるオシライズされた政治用語を緩和する事前訓練されたモデルである。
その結果、イランと中国に関する4つのモデルから生成されたAIの談話は、OpenAI GPT、Google Gemini、Histropic Claude、DeepSeekを含む4つのモデルの中で最も均質で変化しない。
- 参考スコア(独自算出の注目度): 2.524031530528568
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ask your chatbot to impersonate an expert from Russia and an expert from US and query it on Chinese politics. How might the outputs differ? Or, to prepare ourselves for the worse, how might they converge? Scholars have raised concerns LLM based applications can homogenize cultures and flatten perspectives. But exactly how much does LLM generated outputs converge despite explicit different role assignment? This study provides empirical evidence to the above question. The critique centres on pretrained models regurgitating ossified political jargons used in the Western world when speaking about China, Iran, Russian, and US politics, despite changes in these countries happening daily or hourly. The experiments combine role-prompting and similarity metrics. The results show that AI generated discourses from four models about Iran and China are the most homogeneous and unchanging across all four models, including OpenAI GPT, Google Gemini, Anthropic Claude, and DeepSeek, despite the prompted perspective change and the actual changes in real life. This study does not engage with history, politics, or literature as traditional disciplinary approaches would; instead, it takes cues from international and area studies and offers insight on the future trajectory of shifting political discourse in a digital space increasingly cannibalised by AI.
- Abstract(参考訳): チャットボットに、ロシアのエキスパートと米国のエキスパートを偽装して、中国の政治について質問するように頼みなさい。
アウトプットはどう違うのか?
あるいは、もっと悪いことに備えて、どのように収束するのか?
LLMベースのアプリケーションは、文化を均質化し、視点をフラットにすることができる、という懸念を提起している。
しかし、LLMが生成した出力は、明らかに異なる役割割り当てにもかかわらず、どの程度収まるのか?
この研究は上記の疑問に実証的な証拠を与える。
批判の中心は、中国、イラン、ロシア、米国の政治について話す際、欧米で使われるオシライズされた政治用語を緩和する事前訓練されたモデルである。
実験はロールプロンプティングと類似度メトリクスを組み合わせる。
その結果、イランと中国に関する4つのモデルから生成されたAIの談話は、OpenAI GPT、Google Gemini、Histropic Claude、DeepSeekを含む4つのモデルの中で最も均質で変化しない。
この研究は、伝統的な学際的なアプローチのように歴史、政治、文学に関わりません。代わりに、国際的、地域的な研究からヒントを得て、AIに食われつつあるデジタル空間における政治的言論をシフトする将来の軌道についての洞察を与えます。
関連論文リスト
- Do Political Opinions Transfer Between Western Languages? An Analysis of Unaligned and Aligned Multilingual LLMs [8.34389139211844]
政治的意見の異文化間差異は多言語大言語モデル(MLLM)の異言語間差異につながる可能性がある
欧米の5言語にまたがる様々な大きさのMLLMにおいて、意見が言語間で伝達されるか、それぞれの言語に異なる意見が存在するかを分析する。
欧米の文脈では、政治的意見が言語間で伝達され、MLLMの明示的な社会言語学的、文化的、政治的整合性を達成する上での課題が示される。
論文 参考訳(メタデータ) (2025-08-07T16:33:45Z) - Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - GermanPartiesQA: Benchmarking Commercial Large Language Models for Political Bias and Sycophancy [20.06753067241866]
我々は,OpenAI, Anthropic, Cohereの6つのLDMのアライメントをドイツ政党の立場と比較した。
我々は、主要なドイツの国会議員のベンチマークデータと社会デマグラフィーデータを用いて、迅速な実験を行う。
論文 参考訳(メタデータ) (2024-07-25T13:04:25Z) - How should the advent of large language models affect the practice of
science? [51.62881233954798]
大規模言語モデルの出現は科学の実践にどのように影響を与えるべきか?
我々は4つの科学者グループを招待し、この質問を反映し、彼らの見解を共有し、議論をおこなった。
論文 参考訳(メタデータ) (2023-12-05T10:45:12Z) - This Land is {Your, My} Land: Evaluating Geopolitical Biases in Language Models [40.61046400448044]
大規模言語モデル (LLM) では, 異なる言語を問うと, 地理的知識が不整合に記憶されることが示されている。
対象とするケーススタディとして、本質的に議論の的かつ多言語的な課題である領土紛争を考察する。
本稿では,様々な言語における応答のバイアスと一貫性を正確に定量化するための評価指標を提案する。
論文 参考訳(メタデータ) (2023-05-24T01:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。