論文の概要: The American Ghost in the Machine: How language models align culturally and the effects of cultural prompting
- arxiv url: http://arxiv.org/abs/2512.12488v1
- Date: Sat, 13 Dec 2025 23:11:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.279017
- Title: The American Ghost in the Machine: How language models align culturally and the effects of cultural prompting
- Title(参考訳): アメリカン・ゴースト・イン・ザ・マシン(American Ghost in the Machine) : 言語モデルがいかに文化的に整合し、文化的なプロンプトが与える影響
- Authors: James Luther, Donald Brown,
- Abstract要約: 我々は、VSM13国際サーベイとホフステデの文化的側面を用いて、人気のある大言語モデル(LLM)の文化的アライメントを特定する。
次に、これらのモデルの他の文化、すなわち中国、フランス、インド、イラン、日本、米国への適応性をテストするために、文化的なプロンプトを使用します。
テスト対象となった8つのLSMの大多数は、その文化が特定されていない場合に米国を好んでおり、他の文化に刺激された場合の結果は様々である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Culture is the bedrock of human interaction; it dictates how we perceive and respond to everyday interactions. As the field of human-computer interaction grows via the rise of generative Large Language Models (LLMs), the cultural alignment of these models become an important field of study. This work, using the VSM13 International Survey and Hofstede's cultural dimensions, identifies the cultural alignment of popular LLMs (DeepSeek-V3, V3.1, GPT-5, GPT-4.1, GPT-4, Claude Opus 4, Llama 3.1, and Mistral Large). We then use cultural prompting, or using system prompts to shift the cultural alignment of a model to a desired country, to test the adaptability of these models to other cultures, namely China, France, India, Iran, Japan, and the United States. We find that the majority of the eight LLMs tested favor the United States when the culture is not specified, with varying results when prompted for other cultures. When using cultural prompting, seven of the eight models shifted closer to the expected culture. We find that models had trouble aligning with Japan and China, despite two of the models tested originating with the Chinese company DeepSeek.
- Abstract(参考訳): 文化は人間の相互作用の基盤であり、日々の相互作用をどのように知覚し、反応するかを規定する。
生成型大規模言語モデル(LLM)の台頭により、人間とコンピュータの相互作用の分野が成長するにつれて、これらのモデルの文化的アライメントが重要な研究分野となる。
この研究は、VSM13国際サーベイとホフステデの文化的側面を用いて、人気のあるLCM(DeepSeek-V3, V3.1, GPT-5, GPT-4.1, GPT-4, Claude Opus 4, Llama 3.1, Mistral Large)の文化的アライメントを特定する。
次に、文化的なプロンプトを利用するか、あるいは、制度的なプロンプトを用いて、モデルの文化的アライメントを所望の国にシフトさせ、これらのモデルの他の文化(中国、フランス、インド、イラン、日本、アメリカ)への適応性をテストする。
試験対象となった8つのLSMの大多数は、その文化が特定されていない場合に米国を好んでおり、他の文化に刺激された場合の結果は様々である。
文化的なプロンプトを使うとき、8つのモデルのうち7つは期待する文化に近づいた。
私たちは、中国企業DeepSeekがテストした2つのモデルにもかかわらず、日本と中国との整合が困難であることに気付きました。
関連論文リスト
- DeepSeek's WEIRD Behavior: The cultural alignment of Large Language Models and the effects of prompt language and cultural prompting [0.0]
我々は、大規模な言語モデル(LLM)の文化的アライメントを理解するために、Hofstede氏のVSM13国際調査を使用している。
我々は、特定の国を反映させるために、システムプロンプトを使ってモデルのアライメントをシフトさせる戦略である、プロンプト言語とカルチャープロンプトの組み合わせを使用する。
以上の結果から,DeepSeek-V3,V3.1,OpenAIのGPT-5は米国の調査結果と密接に一致していることがわかった。
また、GPT-4は英語で指示された場合、中国に近づきつつあるが、文化的な刺激は、このアライメントをアメリカに近づかせるのに有効である。
論文 参考訳(メタデータ) (2025-12-10T15:54:18Z) - CulturePark: Boosting Cross-cultural Understanding in Large Language Models [63.452948673344395]
本稿では,LLMを利用した文化データ収集のためのマルチエージェント通信フレームワークであるCultureParkを紹介する。
人間の信念、規範、習慣をカプセル化した高品質な異文化対話を生成する。
我々はこれらのモデルを,コンテンツモデレーション,文化的アライメント,文化教育という3つの下流課題にまたがって評価する。
論文 参考訳(メタデータ) (2024-05-24T01:49:02Z) - CULTURE-GEN: Revealing Global Cultural Perception in Language Models through Natural Language Prompting [73.94059188347582]
110か国・地域での3つのSOTAモデルの文化認識を,文化条件付き世代を通して8つの文化関連トピックについて明らかにした。
文化条件付き世代は、デフォルトの文化と区別される余分な文化を区別する言語的な「マーカー」から成り立っていることが判明した。
論文 参考訳(メタデータ) (2024-04-16T00:50:43Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - Cultural Alignment in Large Language Models: An Explanatory Analysis Based on Hofstede's Cultural Dimensions [10.415002561977655]
本研究は,ホフステデの文化次元の枠組みを用いて文化的アライメントを定量化する文化アライメントテスト (Hoftede's CAT) を提案する。
我々は、米国、中国、アラブ諸国といった地域の文化的側面に対して、大規模言語モデル(LLM)を定量的に評価する。
その結果, LLMの文化的アライメントを定量化し, 説明的文化的次元におけるLCMの差異を明らかにすることができた。
論文 参考訳(メタデータ) (2023-08-25T14:50:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。