論文の概要: Echoes of Power: Investigating Geopolitical Bias in US and China Large Language Models
- arxiv url: http://arxiv.org/abs/2503.16679v1
- Date: Thu, 20 Mar 2025 19:53:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:58:39.517932
- Title: Echoes of Power: Investigating Geopolitical Bias in US and China Large Language Models
- Title(参考訳): 力のエコー:米国と中国の大規模言語モデルにおける地政学的バイアスの調査
- Authors: Andre G. C. Pacheco, Athus Cavalini, Giovanni Comarela,
- Abstract要約: 米国と中国の大規模言語モデル(LLM)における地政学的バイアスについて検討する。
両モデルに顕著なバイアスがみられ,イデオロギー的な視点と文化的影響が反映された。
この研究は、LLMが公的な談話を形成する可能性を強調し、AI生成コンテンツを批判的に評価することの重要性を強調している。
- 参考スコア(独自算出の注目度): 2.1028463367241033
- License:
- Abstract: Large Language Models (LLMs) have emerged as powerful tools for generating human-like text, transforming human-machine interactions. However, their widespread adoption has raised concerns about their potential to influence public opinion and shape political narratives. In this work, we investigate the geopolitical biases in US and Chinese LLMs, focusing on how these models respond to questions related to geopolitics and international relations. We collected responses from ChatGPT and DeepSeek to a set of geopolitical questions and evaluated their outputs through both qualitative and quantitative analyses. Our findings show notable biases in both models, reflecting distinct ideological perspectives and cultural influences. However, despite these biases, for a set of questions, the models' responses are more aligned than expected, indicating that they can address sensitive topics without necessarily presenting directly opposing viewpoints. This study highlights the potential of LLMs to shape public discourse and underscores the importance of critically assessing AI-generated content, particularly in politically sensitive contexts.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人間に似たテキストを生成する強力なツールとして登場し、人間と機械の相互作用を変換している。
しかし、その普及が世論に影響を与え、政治的物語を形作る可能性を懸念している。
本研究では,米国と中国のLLMにおける地政学的偏見を考察し,これらのモデルが地政学と国際関係に関する疑問にどのように反応するかに着目した。
地政学的質問に対するChatGPTとDeepSeekの回答を収集し,質的,定量的な分析を行った。
両モデルに顕著なバイアスがみられ,イデオロギー的な視点と文化的影響が反映された。
しかしながら、これらのバイアスにもかかわらず、一連の質問に対して、モデルの応答は予想以上に一致しており、必ずしも反対の視点を提示することなく、センシティブなトピックに対処できることを示している。
この研究は、公共の言論を形成するLLMの可能性を強調し、特に政治的に敏感な文脈において、AI生成コンテンツを批判的に評価することの重要性を強調している。
関連論文リスト
- Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Red AI? Inconsistent Responses from GPT3.5 Models on Political Issues in
the US and China [13.583047010078648]
本稿では,GPTの多言語モデルにおける政治的バイアスについて検討する。
我々は、米国と中国の政治問題に関して、英語と簡体字の両方でGPTに同じ疑問を提起した。
両言語対応の分析の結果,GPTの政治的「知識」と政治的「態度」が中国の政治問題に大きく矛盾していることが判明した。
論文 参考訳(メタデータ) (2023-12-15T16:25:56Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Unmasking Nationality Bias: A Study of Human Perception of Nationalities
in AI-Generated Articles [10.8637226966191]
自然言語処理(NLP)モデルにおける国籍バイアスの可能性について,人間の評価手法を用いて検討した。
本研究は、テキスト生成モデルにおける国籍バイアスの影響を識別し、理解するために、2段階の混合手法を用いている。
以上の結果から,NLPモデルでは既存の社会的バイアスを再現・増幅する傾向があり,社会工学的な場面で使用すれば害につながる可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-08T15:46:27Z) - Inflating Topic Relevance with Ideology: A Case Study of Political
Ideology Bias in Social Topic Detection Models [16.279854003220418]
トレーニングデータにおける政治的イデオロギーバイアスの影響について検討する。
私たちの研究は、人間の選択した入力からバイアスを伝達する、大規模で複雑なモデルの受容性を強調します。
偏見を緩和する手段として,政治的イデオロギーに不変なテキスト表現の学習を提案する。
論文 参考訳(メタデータ) (2020-11-29T05:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。