論文の概要: Red AI? Inconsistent Responses from GPT3.5 Models on Political Issues in
the US and China
- arxiv url: http://arxiv.org/abs/2312.09917v1
- Date: Fri, 15 Dec 2023 16:25:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:08:12.125064
- Title: Red AI? Inconsistent Responses from GPT3.5 Models on Political Issues in
the US and China
- Title(参考訳): レッドAI?
米国と中国の政治問題に対するGPT3.5モデルの不整合反応
- Authors: Di Zhou, Yinxian Zhang
- Abstract要約: 本稿では,GPTの多言語モデルにおける政治的バイアスについて検討する。
我々は、米国と中国の政治問題に関して、英語と簡体字の両方でGPTに同じ疑問を提起した。
両言語対応の分析の結果,GPTの政治的「知識」と政治的「態度」が中国の政治問題に大きく矛盾していることが判明した。
- 参考スコア(独自算出の注目度): 13.583047010078648
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rising popularity of ChatGPT and other AI-powered large language models
(LLMs) has led to increasing studies highlighting their susceptibility to
mistakes and biases. However, most of these studies focus on models trained on
English texts. Taking an innovative approach, this study investigates political
biases in GPT's multilingual models. We posed the same question about
high-profile political issues in the United States and China to GPT in both
English and simplified Chinese, and our analysis of the bilingual responses
revealed that GPT's bilingual models' political "knowledge" (content) and the
political "attitude" (sentiment) are significantly more inconsistent on
political issues in China. The simplified Chinese GPT models not only tended to
provide pro-China information but also presented the least negative sentiment
towards China's problems, whereas the English GPT was significantly more
negative towards China. This disparity may stem from Chinese state censorship
and US-China geopolitical tensions, which influence the training corpora of GPT
bilingual models. Moreover, both Chinese and English models tended to be less
critical towards the issues of "their own" represented by the language used,
than the issues of "the other." This suggests that GPT multilingual models
could potentially develop a "political identity" and an associated sentiment
bias based on their training language. We discussed the implications of our
findings for information transmission and communication in an increasingly
divided world.
- Abstract(参考訳): ChatGPTやその他のAI駆動の大規模言語モデル(LLM)の人気が高まり、誤りやバイアスへの感受性が強調される研究が増えている。
しかし、これらの研究のほとんどは英語のテキストで訓練されたモデルに焦点を当てている。
本稿では,GPTの多言語モデルにおける政治的偏見について考察する。
我々は、米国と中国の著名な政治問題について、英語と簡体字の両方でGPTに同様の疑問を提起し、両言語対応の分析の結果、GPTのバイリンガルモデルの政治的「知識(コンテント)」と政治的「態度(センチメント)」が、中国の政治問題に大きく矛盾していることが判明した。
単純化された中国のGPTモデルは、中国側の情報を提供する傾向だけでなく、中国の問題に対する最も否定的な感情も示していた。
この格差は、GPTバイリンガルモデルのトレーニングコーパスに影響を与える中国の検閲と米国と中国の地政学的緊張に由来する可能性がある。
さらに、中国語と英語の両方のモデルは、使用する言語によって表現される「their own」の問題に対して、「the other」の問題よりも批判的になりがちであった。
これは、GPT多言語モデルは、訓練言語に基づく「政治的アイデンティティ」と関連する感情バイアスを発達させる可能性があることを示唆している。
我々は,情報伝達とコミュニケーションに関する知見の意義について,より分断された世界において議論した。
関連論文リスト
- Multilingual large language models leak human stereotypes across language boundaries [25.903732543380528]
我々は、英語、ロシア語、中国語、ヒンディー語という4つの言語にまたがるステレオタイプ的関連について検討する。
ヒンディー語は他の言語の影響を受けやすいが、中国語は最小である。
論文 参考訳(メタデータ) (2023-12-12T10:24:17Z) - Navigating the Ocean of Biases: Political Bias Attribution in Language
Models via Causal Structures [58.059631072902356]
我々は、LLMの価値観を批判したり、検証したりせず、どのようにして「良い議論」を解釈し、偏見づけるかを見極めることを目的としている。
本研究では,活動依存ネットワーク(ADN)を用いてLCMの暗黙的基準を抽出する。
人-AIアライメントとバイアス緩和について,本研究の結果について考察した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Expanding Scope: Adapting English Adversarial Attacks to Chinese [11.032727439758661]
本稿では,SOTA攻撃アルゴリズムを中国語に適応させる方法について検討する。
実験の結果,これまで英語NLPに適用されていた攻撃手法は,中国語で高品質な敵の例を生成できることがわかった。
さらに, 生成した逆数例が高頻度でセマンティック一貫性が得られることを示す。
論文 参考訳(メタデータ) (2023-06-08T02:07:49Z) - Bias or Diversity? Unraveling Fine-Grained Thematic Discrepancy in U.S.
News Headlines [63.52264764099532]
われわれは、2014年から2022年までの米国の主要メディアから、180万件のニュース記事の大規模なデータセットを使用している。
我々は、国内政治、経済問題、社会問題、外交の4つの主要なトピックに関連する、きめ細かいテーマの相違を定量化する。
以上の結果から,国内政治や社会問題においては,一定のメディア偏見が原因であることが示唆された。
論文 参考訳(メタデータ) (2023-03-28T03:31:37Z) - A critical appraisal of equity in conversational AI: Evidence from
auditing GPT-3's dialogues with different publics on climate change and Black
Lives Matter [17.549208519206605]
本稿では,人間とAIの対話において,株式の意味を解き放つための分析的枠組みを提案する。
我々のコーパスは、GPT-3と3290人間の2万ラウンド以上の対話で構成されています。
世論や教育マイノリティのサブ集団の中で,GPT-3のユーザ体験が著しく悪化していることが判明した。
論文 参考訳(メタデータ) (2022-09-27T18:44:41Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Controlled Evaluation of Grammatical Knowledge in Mandarin Chinese
Language Models [22.57309958548928]
構造的監督が言語モデルの文法的依存の学習能力を向上させるかどうかを検討する。
LSTM、リカレントニューラルネットワーク文法、トランスフォーマー言語モデル、および異なるサイズのデータセットに対する生成解析モデルをトレーニングする。
構造的監督がコンテンツ間のシナティクス状態の表現に役立ち、低データ設定における性能向上に役立つという示唆的な証拠が得られます。
論文 参考訳(メタデータ) (2021-09-22T22:11:30Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - On Negative Interference in Multilingual Models: Findings and A
Meta-Learning Treatment [59.995385574274785]
従来の信念に反して、負の干渉は低リソース言語にも影響を及ぼすことを示す。
メタ学習アルゴリズムは、より優れた言語間変換性を得、負の干渉を軽減する。
論文 参考訳(メタデータ) (2020-10-06T20:48:58Z) - Country Image in COVID-19 Pandemic: A Case Study of China [79.17323278601869]
国像は国際関係と経済発展に大きな影響を与えている。
新型コロナウイルス(COVID-19)の世界的な流行で、各国と国民は異なる反応を見せている。
本研究では,中国を具体的かつ典型的な事例として捉え,大規模Twitterデータセットのアスペクトベース感情分析を用いてそのイメージを考察する。
論文 参考訳(メタデータ) (2020-09-12T15:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。