論文の概要: Made-in China, Thinking in America:U.S. Values Persist in Chinese LLMs
- arxiv url: http://arxiv.org/abs/2512.13723v1
- Date: Sat, 13 Dec 2025 02:52:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.395644
- Title: Made-in China, Thinking in America:U.S. Values Persist in Chinese LLMs
- Title(参考訳): 中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国・中国
- Authors: David Haslett, Linus Ta-Lun Huang, Leila Khalatbari, Janet Hui-wen Hsiao, Antoni B. Chan,
- Abstract要約: 我々は,中国とアメリカのモデルが中国と米国の人々とどのように一致しているかについて,初めて大規模な調査を行った。
どちらのモデルも、中国人よりもアメリカ人に近い。
このアメリカ人の価値観に対する歪みは、中国語でモデルを推し進めたり、そのモデルに中国語のペルソナを課すと、わずかに緩和されるだけである。
- 参考スコア(独自算出の注目度): 37.32224196180997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models increasingly mediate access to information and facilitate decision-making, they are becoming instruments in soft power competitions between global actors such as the United States and China. So far, language models seem to be aligned with the values of Western countries, but evidence for this ethical bias comes mostly from models made by American companies. The current crop of state-of-the-art models includes several made in China, so we conducted the first large-scale investigation of how models made in China and the USA align with people from China and the USA. We elicited responses to the Moral Foundations Questionnaire 2.0 and the World Values Survey from ten Chinese models and ten American models, and we compared their responses to responses from thousands of Chinese and American people. We found that all models respond to both surveys more like American people than like Chinese people. This skew toward American values is only slightly mitigated when prompting the models in Chinese or imposing a Chinese persona on the models. These findings have important implications for a near future in which large language models generate much of the content people consume and shape normative influence in geopolitics.
- Abstract(参考訳): 大規模な言語モデルが情報へのアクセスを仲介し、意思決定を促進するにつれ、米国や中国のようなグローバルなアクター間のソフトパワーコンペティションの手段になりつつある。
これまでのところ、言語モデルは西洋諸国の価値観と一致しているようだが、この倫理的偏見の証拠は、主にアメリカの企業によって作られたモデルから来ている。
現在の最先端モデルには中国製のものもいくつか含まれており、中国や米国で作られたモデルが中国や米国の人々とどのように一致しているかを、我々は初めて大規模に調査した。
我々は,10の中国モデルと10のアメリカモデルからMoral Foundations Questionnaire 2.0とWorld Values Surveyへの回答を求めた。
いずれのモデルも、中国人よりもアメリカ人の方が、両方の調査に反応することがわかった。
このアメリカ人の価値観に対する歪みは、中国語でモデルを推し進めたり、そのモデルに中国語のペルソナを課すと、わずかに緩和されるだけである。
これらの発見は、人々が消費するコンテンツの多くを大規模言語モデルが生成し、地政学における規範的影響を形作る、近い将来に重要な意味を持つ。
関連論文リスト
- A Cross-Cultural Comparison of LLM-based Public Opinion Simulation: Evaluating Chinese and U.S. Models on Diverse Societies [7.778189232254147]
本研究は,オープンソース大規模言語モデル (LLM) が,IT企業によって開発されたモデルと比較して,世論をシミュレートする能力を評価するものである。
以上の結果から,DeepSeek-V3は中絶問題に対する米国の意見のシミュレートに最善を尽くしていることが明らかとなった。
中国のサンプルでは、DeepSeek-V3は、外国援助や個人主義についての意見をシミュレートする上で最善を尽くしているが、資本主義に関するモデリングの観点には限界がある。
論文 参考訳(メタデータ) (2025-06-17T19:19:14Z) - Do Chinese models speak Chinese languages? [3.1815791977708834]
言語能力は、事前トレーニングデータキュレーションに関する洞察を提供する。
中国は、少数言語の傾向とマンダリン第一政策の間で異なる、明示的な言語政策の長い歴史を持っている。
アジア地域および中国のマイノリティ言語を対象とした,中国と西欧のオープンソースLLMの性能を検証した。
論文 参考訳(メタデータ) (2025-03-31T23:19:08Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Red AI? Inconsistent Responses from GPT3.5 Models on Political Issues in
the US and China [13.583047010078648]
本稿では,GPTの多言語モデルにおける政治的バイアスについて検討する。
我々は、米国と中国の政治問題に関して、英語と簡体字の両方でGPTに同じ疑問を提起した。
両言語対応の分析の結果,GPTの政治的「知識」と政治的「態度」が中国の政治問題に大きく矛盾していることが判明した。
論文 参考訳(メタデータ) (2023-12-15T16:25:56Z) - Towards Measuring the Representation of Subjective Global Opinions in Language Models [26.999751306332165]
大規模言語モデル(LLM)は、社会問題に関する多様なグローバルな視点を公平に表すものではない。
本研究では,どの意見がモデル生成応答に類似しているかを定量的に評価する枠組みを開発する。
他者が使用して構築するためのデータセットをリリースしています。
論文 参考訳(メタデータ) (2023-06-28T17:31:53Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - Speaking Multiple Languages Affects the Moral Bias of Language Models [70.94372902010232]
事前訓練された多言語言語モデル(PMLM)は、複数の言語からのデータや言語間転送を扱う際に一般的に用いられる。
モデルは英語から道徳的規範を捉え、他の言語に強制するか?
我々の実験は、事実、PMLMが道徳的バイアスを符号化していることを示しているが、これらは必ずしも人間の意見の文化的相違や共通点に対応しているわけではない。
論文 参考訳(メタデータ) (2022-11-14T20:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。