論文の概要: DeepSeek's WEIRD Behavior: The cultural alignment of Large Language Models and the effects of prompt language and cultural prompting
- arxiv url: http://arxiv.org/abs/2512.09772v2
- Date: Fri, 12 Dec 2025 17:25:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 13:50:29.102843
- Title: DeepSeek's WEIRD Behavior: The cultural alignment of Large Language Models and the effects of prompt language and cultural prompting
- Title(参考訳): DeepSeekのWEIRD行動:大規模言語モデルの文化的アライメントと即興言語と文化的プロンプトの効果
- Authors: James Luther, Donald Brown,
- Abstract要約: 我々は、大規模な言語モデル(LLM)の文化的アライメントを理解するために、Hofstede氏のVSM13国際調査を使用している。
我々は、特定の国を反映させるために、システムプロンプトを使ってモデルのアライメントをシフトさせる戦略である、プロンプト言語とカルチャープロンプトの組み合わせを使用する。
以上の結果から,DeepSeek-V3,V3.1,OpenAIのGPT-5は米国の調査結果と密接に一致していることがわかった。
また、GPT-4は英語で指示された場合、中国に近づきつつあるが、文化的な刺激は、このアライメントをアメリカに近づかせるのに有効である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Culture is a core component of human-to-human interaction and plays a vital role in how we perceive and interact with others. Advancements in the effectiveness of Large Language Models (LLMs) in generating human-sounding text have greatly increased the amount of human-to-computer interaction. As this field grows, the cultural alignment of these human-like agents becomes an important field of study. Our work uses Hofstede's VSM13 international surveys to understand the cultural alignment of the following models: DeepSeek-V3, V3.1, GPT-4, GPT-4.1, GPT-4o, and GPT-5. We use a combination of prompt language and cultural prompting, a strategy that uses a system prompt to shift a model's alignment to reflect a specific country, to align these LLMs with the United States and China. Our results show that DeepSeek-V3, V3.1, and OpenAI's GPT-5 exhibit a close alignment with the survey responses of the United States and do not achieve a strong or soft alignment with China, even when using cultural prompts or changing the prompt language. We also find that GPT-4 exhibits an alignment closer to China when prompted in English, but cultural prompting is effective in shifting this alignment closer to the United States. Other low-cost models, GPT-4o and GPT-4.1, respond to the prompt language used (i.e., English or Simplified Chinese) and cultural prompting strategies to create acceptable alignments with both the United States and China.
- Abstract(参考訳): 文化は人間と人間の相互作用の中核的な要素であり、他者との知覚と相互作用において重要な役割を担います。
音声テキスト生成におけるLarge Language Models(LLMs)の有効性の進歩は、人間とコンピュータの相互作用の量を大幅に増加させた。
この分野が成長するにつれて、これらの人間のようなエージェントの文化的アライメントが重要な研究分野となる。
我々の研究は、HofstedeのVSM13国際調査を用いて、DeepSeek-V3, V3.1, GPT-4, GPT-4.1, GPT-4o, GPT-5の文化的アライメントを理解する。
我々は,特定の国を反映するモデルアライメントを,システムプロンプトを用いて,これらのLLMを米国と中国と整合させる,プロンプト言語と文化的プロンプトの組み合わせを用いる。
以上の結果から,DeepSeek-V3,V3.1,OpenAIのGPT-5は米国の調査回答と密接な一致を示し,文化的なプロンプトを用いたり,プロンプト言語を変更したりしても,中国との強いあるいは柔らかい連携は得られないことがわかった。
また、GPT-4は英語で指示された場合、中国に近い配向を示すが、文化的な促進は、この配向をアメリカに近付けるのに有効である。
他の低価格モデル、GPT-4oとGPT-4.1は、使われるプロンプト言語(英語または簡体字中国語)と文化的なプロンプト戦略に対応し、米国と中国の両方と許容されるアライメントを作り出す。
関連論文リスト
- The American Ghost in the Machine: How language models align culturally and the effects of cultural prompting [0.0]
我々は、VSM13国際サーベイとホフステデの文化的側面を用いて、人気のある大言語モデル(LLM)の文化的アライメントを特定する。
次に、これらのモデルの他の文化、すなわち中国、フランス、インド、イラン、日本、米国への適応性をテストするために、文化的なプロンプトを使用します。
テスト対象となった8つのLSMの大多数は、その文化が特定されていない場合に米国を好んでおり、他の文化に刺激された場合の結果は様々である。
論文 参考訳(メタデータ) (2025-12-13T23:11:41Z) - LLMs and Cultural Values: the Impact of Prompt Language and Explicit Cultural Framing [0.21485350418225244]
大規模言語モデル(LLM)は、世界中のユーザによって急速に採用され、さまざまな言語でそれらと対話している。
言語と文化のフレーミングが、異なる国の人的価値にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2025-11-06T02:09:29Z) - MMA-ASIA: A Multilingual and Multimodal Alignment Framework for Culturally-Grounded Evaluation [91.22008265721952]
MMA-ASIAは、アジア8か国と10か国を対象とする人為的、多言語的、マルチモーダルなベンチマークに重点を置いている。
これは、テキスト、画像(視覚的質問応答)、音声の3つのモードにまたがる入力レベルで整列された最初のデータセットである。
i) 国間の文化的認識格差、(ii) 言語間の整合性、(iii) 言語間の整合性、(iv) 文化知識の一般化、(v) 基礎的妥当性を評価する5次元評価プロトコルを提案する。
論文 参考訳(メタデータ) (2025-10-07T14:12:12Z) - Cross-Cultural Transfer of Commonsense Reasoning in LLMs: Evidence from the Arab World [68.19795061447044]
本稿では,アラブ世界におけるコモンセンス推論の異文化間移動について検討する。
アラブ13カ国を対象とした文化基盤のコモンセンス推論データセットを用いて,軽量アライメント手法の評価を行った。
以上の結果から,他国の文化特有例は12例に過ぎず,他国の文化特有例を平均10%向上させることができた。
論文 参考訳(メタデータ) (2025-09-23T17:24:14Z) - From Word to World: Evaluate and Mitigate Culture Bias in LLMs via Word Association Test [50.51344198689069]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好に対処するために,モデルの内部表現空間に直接,文化固有の意味的関連性を直接埋め込む革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - CulturePark: Boosting Cross-cultural Understanding in Large Language Models [63.452948673344395]
本稿では,LLMを利用した文化データ収集のためのマルチエージェント通信フレームワークであるCultureParkを紹介する。
人間の信念、規範、習慣をカプセル化した高品質な異文化対話を生成する。
我々はこれらのモデルを,コンテンツモデレーション,文化的アライメント,文化教育という3つの下流課題にまたがって評価する。
論文 参考訳(メタデータ) (2024-05-24T01:49:02Z) - Human vs. LMMs: Exploring the Discrepancy in Emoji Interpretation and Usage in Digital Communication [68.40865217231695]
本研究は,ヒト型絵文字の複製におけるGPT-4Vの挙動について検討した。
この結果は、人間の解釈の主観的な性質から、人間とGPT-4Vの行動に明確な相違があることを示唆している。
論文 参考訳(メタデータ) (2024-01-16T08:56:52Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - Large language models can replicate cross-cultural differences in personality [0.0]
我々は大規模な実験を行い、GPT-4がビッグファイブの異文化間差異を再現できるかどうかを検証した。
私たちはアメリカと韓国を文化のペアとして使いました。
論文 参考訳(メタデータ) (2023-10-12T11:17:23Z) - Cultural Alignment in Large Language Models: An Explanatory Analysis Based on Hofstede's Cultural Dimensions [10.415002561977655]
本研究は,ホフステデの文化次元の枠組みを用いて文化的アライメントを定量化する文化アライメントテスト (Hoftede's CAT) を提案する。
我々は、米国、中国、アラブ諸国といった地域の文化的側面に対して、大規模言語モデル(LLM)を定量的に評価する。
その結果, LLMの文化的アライメントを定量化し, 説明的文化的次元におけるLCMの差異を明らかにすることができた。
論文 参考訳(メタデータ) (2023-08-25T14:50:13Z) - Assessing Cross-Cultural Alignment between ChatGPT and Human Societies:
An Empirical Study [9.919972416590124]
ChatGPTは、対話で人間のような反応を生成できるという異常な能力で広く認知されている。
そこで我々は,ChatGPTの文化的背景を,人間の文化的差異を定量化するための質問に対する応答の分析によって検討した。
論文 参考訳(メタデータ) (2023-03-30T15:43:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。