論文の概要: The Cultural Gene of Large Language Models: A Study on the Impact of Cross-Corpus Training on Model Values and Biases
- arxiv url: http://arxiv.org/abs/2508.12411v1
- Date: Sun, 17 Aug 2025 15:54:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.753085
- Title: The Cultural Gene of Large Language Models: A Study on the Impact of Cross-Corpus Training on Model Values and Biases
- Title(参考訳): 大規模言語モデルの文化的遺伝子:クロスコルプス学習がモデル価値とバイアスに及ぼす影響に関する研究
- Authors: Emanuel Z. Fenech-Borg, Tilen P. Meznaric-Kos, Milica D. Lekovic-Bojovic, Arni J. Hentze-Djurhuus,
- Abstract要約: 大規模言語モデル(LLM)は世界中に展開されているが、その根底にある文化的・倫理的な前提は未解明のままである。
西洋中心モデル (GPT-4) と東洋中心モデル (ERNIE Bot) を比較した。
人間のアノテーションは両次元に有意かつ一貫した相違を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are deployed globally, yet their underlying cultural and ethical assumptions remain underexplored. We propose the notion of a "cultural gene" -- a systematic value orientation that LLMs inherit from their training corpora -- and introduce a Cultural Probe Dataset (CPD) of 200 prompts targeting two classic cross-cultural dimensions: Individualism-Collectivism (IDV) and Power Distance (PDI). Using standardized zero-shot prompts, we compare a Western-centric model (GPT-4) and an Eastern-centric model (ERNIE Bot). Human annotation shows significant and consistent divergence across both dimensions. GPT-4 exhibits individualistic and low-power-distance tendencies (IDV score approx 1.21; PDI score approx -1.05), while ERNIE Bot shows collectivistic and higher-power-distance tendencies (IDV approx -0.89; PDI approx 0.76); differences are statistically significant (p < 0.001). We further compute a Cultural Alignment Index (CAI) against Hofstede's national scores and find GPT-4 aligns more closely with the USA (e.g., IDV CAI approx 0.91; PDI CAI approx 0.88) whereas ERNIE Bot aligns more closely with China (IDV CAI approx 0.85; PDI CAI approx 0.81). Qualitative analyses of dilemma resolution and authority-related judgments illustrate how these orientations surface in reasoning. Our results support the view that LLMs function as statistical mirrors of their cultural corpora and motivate culturally aware evaluation and deployment to avoid algorithmic cultural hegemony.
- Abstract(参考訳): 大規模言語モデル(LLM)は世界中に展開されているが、その根底にある文化的・倫理的な前提は未解明のままである。
本研究では, LLMが学習コーパスから継承する体系的価値指向である「文化的遺伝子」の概念を提案し, 個人主義・集団主義(IDV)とパワーディスタンス(PDI)の2つの古典的文化的側面を対象とする200のプロンプトからなる文化的プローブデータセット(CPD)を導入する。
標準のゼロショットプロンプトを用いて、西部中心モデル(GPT-4)と東部中心モデル(ERNIE Bot)を比較した。
人間のアノテーションは両次元に有意かつ一貫した相違を示す。
GPT-4は個人性および低パワー依存傾向を示す(IDV score approx 1.21; PDI score approx -1.05)が、ERNIE Botは集団性および高パワー依存傾向を示す(IDV approx -0.89; PDI approx 0.76)。
さらに、ホフステデの全国得点に対する文化的アライメント指数(CAI)を算出し、GPT-4は米国(例えば、IDV CAI approx 0.91; PDI CAI approx 0.88)とより緊密に、ERNIE Botは中国(IDV CAI approx 0.85; PDI CAI approx 0.81)とより密に一致している。
ジレンマ分解能の質的解析と権威に関する判断は、これらの配向が推論においてどのように表されるかを示す。
本研究は,LLMが文化的コーパスの統計ミラーとして機能し,アルゴリズム的文化的ヘゲモニーを回避するために,文化的に意識された評価と展開を動機付けているという見解を支持する。
関連論文リスト
- Cultural Value Alignment in Large Language Models: A Prompt-based Analysis of Schwartz Values in Gemini, ChatGPT, and DeepSeek [0.0]
本研究では,大きな言語モデル(LLM)における文化的価値のアライメントを,Gemini,ChatGPT,DeepSeekがSchwartzのバリューフレームワークからどのように価値を優先するかを分析することによって検討する。
ベイズ順序回帰モデルの結果は、自己超越値(例えば、ベネヴァレンス、普遍主義)が全てのモデルで高い優先順位付けがなされていることを示している。
DeepSeekは、ChatGPTやGeminiと比べて独自の自己啓発価値を軽視し、集合主義的な文化的傾向と一致した。
論文 参考訳(メタデータ) (2025-05-21T14:03:19Z) - Multimodal Cultural Safety: Evaluation Frameworks and Alignment Strategies [58.88053690412802]
大規模視覚言語モデル(LVLM)は、観光アシスタントのようなグローバルに分散したアプリケーションにますます導入されている。
CROSSは、LVLMの文化的安全性推論能力を評価するために設計されたベンチマークである。
実験モデルと推論モデルを含む21種類のLVLMを評価した。
論文 参考訳(メタデータ) (2025-05-20T23:20:38Z) - CulturePark: Boosting Cross-cultural Understanding in Large Language Models [63.452948673344395]
本稿では,LLMを利用した文化データ収集のためのマルチエージェント通信フレームワークであるCultureParkを紹介する。
人間の信念、規範、習慣をカプセル化した高品質な異文化対話を生成する。
我々はこれらのモデルを,コンテンツモデレーション,文化的アライメント,文化教育という3つの下流課題にまたがって評価する。
論文 参考訳(メタデータ) (2024-05-24T01:49:02Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - Large language models can replicate cross-cultural differences in personality [0.0]
我々は大規模な実験を行い、GPT-4がビッグファイブの異文化間差異を再現できるかどうかを検証した。
私たちはアメリカと韓国を文化のペアとして使いました。
論文 参考訳(メタデータ) (2023-10-12T11:17:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。