論文の概要: Red AI? Inconsistent Responses from GPT3.5 Models on Political Issues in
the US and China
- arxiv url: http://arxiv.org/abs/2312.09917v1
- Date: Fri, 15 Dec 2023 16:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:08:12.125064
- Title: Red AI? Inconsistent Responses from GPT3.5 Models on Political Issues in
the US and China
- Title(参考訳): レッドAI?
米国と中国の政治問題に対するGPT3.5モデルの不整合反応
- Authors: Di Zhou, Yinxian Zhang
- Abstract要約: 本稿では,GPTの多言語モデルにおける政治的バイアスについて検討する。
我々は、米国と中国の政治問題に関して、英語と簡体字の両方でGPTに同じ疑問を提起した。
両言語対応の分析の結果,GPTの政治的「知識」と政治的「態度」が中国の政治問題に大きく矛盾していることが判明した。
- 参考スコア(独自算出の注目度): 13.583047010078648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rising popularity of ChatGPT and other AI-powered large language models
(LLMs) has led to increasing studies highlighting their susceptibility to
mistakes and biases. However, most of these studies focus on models trained on
English texts. Taking an innovative approach, this study investigates political
biases in GPT's multilingual models. We posed the same question about
high-profile political issues in the United States and China to GPT in both
English and simplified Chinese, and our analysis of the bilingual responses
revealed that GPT's bilingual models' political "knowledge" (content) and the
political "attitude" (sentiment) are significantly more inconsistent on
political issues in China. The simplified Chinese GPT models not only tended to
provide pro-China information but also presented the least negative sentiment
towards China's problems, whereas the English GPT was significantly more
negative towards China. This disparity may stem from Chinese state censorship
and US-China geopolitical tensions, which influence the training corpora of GPT
bilingual models. Moreover, both Chinese and English models tended to be less
critical towards the issues of "their own" represented by the language used,
than the issues of "the other." This suggests that GPT multilingual models
could potentially develop a "political identity" and an associated sentiment
bias based on their training language. We discussed the implications of our
findings for information transmission and communication in an increasingly
divided world.
- Abstract(参考訳): ChatGPTやその他のAI駆動の大規模言語モデル(LLM)の人気が高まり、誤りやバイアスへの感受性が強調される研究が増えている。
しかし、これらの研究のほとんどは英語のテキストで訓練されたモデルに焦点を当てている。
本稿では,GPTの多言語モデルにおける政治的偏見について考察する。
我々は、米国と中国の著名な政治問題について、英語と簡体字の両方でGPTに同様の疑問を提起し、両言語対応の分析の結果、GPTのバイリンガルモデルの政治的「知識(コンテント)」と政治的「態度(センチメント)」が、中国の政治問題に大きく矛盾していることが判明した。
単純化された中国のGPTモデルは、中国側の情報を提供する傾向だけでなく、中国の問題に対する最も否定的な感情も示していた。
この格差は、GPTバイリンガルモデルのトレーニングコーパスに影響を与える中国の検閲と米国と中国の地政学的緊張に由来する可能性がある。
さらに、中国語と英語の両方のモデルは、使用する言語によって表現される「their own」の問題に対して、「the other」の問題よりも批判的になりがちであった。
これは、GPT多言語モデルは、訓練言語に基づく「政治的アイデンティティ」と関連する感情バイアスを発達させる可能性があることを示唆している。
我々は,情報伝達とコミュニケーションに関する知見の意義について,より分断された世界において議論した。
関連論文リスト
- Hermit Kingdom Through the Lens of Multiple Perspectives: A Case Study of LLM Hallucination on North Korea [6.242658047228021]
大きな言語モデル(LLM)における幻覚は、安全なデプロイメントにおいて重要な課題である。
この研究は、信頼できる情報源の欠如とセンセーショナルな虚偽の出現を特徴とする北朝鮮をケーススタディとしている。
我々は,最も優れた多言語LLMのいくつかが,重要な地政学的関心を持つ国で話される3つの言語において,北朝鮮に関する情報をいかに生成するかを探求し,評価する。
論文 参考訳(メタデータ) (2025-01-10T14:08:59Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Identifying the sources of ideological bias in GPT models through linguistic variation in output [0.0]
我々は、政治的態度の対照的な国における言語変化を利用して、センシティブな政治トピックに対するGPT応答のバイアスを評価する。
GPTのアウトプットは、保守的な社会によく対応している言語ではより保守的である。
GPT-3.5で見られる言語間の差異は、OpenAIのフィルタリングポリシーのため、GPT-4の方がはるかにリベラルであるにもかかわらず、GPT-4で持続する。
論文 参考訳(メタデータ) (2024-09-09T20:11:08Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - How Chinese are Chinese Language Models? The Puzzling Lack of Language Policy in China's LLMs [2.9123921488295768]
18言語で中国語企業によって事前訓練された6つのオープンソース多言語LPMを評価した。
実験の結果,中国における多言語でのLLMのパフォーマンスは国際LLMと区別できないことがわかった。
われわれは、中国のLLM開発において、言語多様性のいずれに対しても、一貫した政策の兆候は見つからない。
論文 参考訳(メタデータ) (2024-07-12T19:21:40Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Expanding Scope: Adapting English Adversarial Attacks to Chinese [11.032727439758661]
本稿では,SOTA攻撃アルゴリズムを中国語に適応させる方法について検討する。
実験の結果,これまで英語NLPに適用されていた攻撃手法は,中国語で高品質な敵の例を生成できることがわかった。
さらに, 生成した逆数例が高頻度でセマンティック一貫性が得られることを示す。
論文 参考訳(メタデータ) (2023-06-08T02:07:49Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Country Image in COVID-19 Pandemic: A Case Study of China [79.17323278601869]
国像は国際関係と経済発展に大きな影響を与えている。
新型コロナウイルス(COVID-19)の世界的な流行で、各国と国民は異なる反応を見せている。
本研究では,中国を具体的かつ典型的な事例として捉え,大規模Twitterデータセットのアスペクトベース感情分析を用いてそのイメージを考察する。
論文 参考訳(メタデータ) (2020-09-12T15:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。