論文の概要: The fragility of "cultural tendencies" in LLMs
- arxiv url: http://arxiv.org/abs/2510.05869v1
- Date: Tue, 07 Oct 2025 12:37:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.249967
- Title: The fragility of "cultural tendencies" in LLMs
- Title(参考訳): LLMにおける「文化的傾向」の脆弱性
- Authors: Kun Sun, Rong Wang,
- Abstract要約: 報告された「文化的傾向」は安定した特徴ではなく、特定のモデルやタスクデザインの脆弱な成果物であると主張する。
以上の結果から,プロンプト言語はアウトプットに最小限の影響を及ぼし,これらのモデルが基礎的文化的信念を符号化しているというLSZの主張に異議を唱えた。
- 参考スコア(独自算出の注目度): 23.77480663886995
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In a recent study, Lu, Song, and Zhang (2025) (LSZ) propose that large language models (LLMs), when prompted in different languages, display culturally specific tendencies. They report that the two models (i.e., GPT and ERNIE) respond in more interdependent and holistic ways when prompted in Chinese, and more independent and analytic ways when prompted in English. LSZ attribute these differences to deep-seated cultural patterns in the models, claiming that prompt language alone can induce substantial cultural shifts. While we acknowledge the empirical patterns they observed, we find their experiments, methods, and interpretations problematic. In this paper, we critically re-evaluate the methodology, theoretical framing, and conclusions of LSZ. We argue that the reported "cultural tendencies" are not stable traits but fragile artifacts of specific models and task design. To test this, we conducted targeted replications using a broader set of LLMs and a larger number of test items. Our results show that prompt language has minimal effect on outputs, challenging LSZ's claim that these models encode grounded cultural beliefs.
- Abstract(参考訳): 最近の研究で、Lu, Song, and Zhang (2025) (LSZ) は、異なる言語で促される大きな言語モデル (LLM) は文化的に特定の傾向を示すことを提案している。
彼らは、2つのモデル(つまりGPTとERNIE)が中国語で刺激されたときより相互依存的で全体論的に反応し、英語で刺激されたときより独立的で分析的な反応を報告した。
LSZはこれらの違いをモデルにおける深い文化パターンとみなし、急進的な言語だけで大きな文化的変化を引き起こすことができると主張している。
我々は、彼らが観察した経験的パターンを認識しながら、それらの実験、方法、解釈に問題を見出した。
本稿では,LSZの方法論,理論的フレーミング,結論を批判的に再評価する。
報告された「文化的傾向」は安定した特徴ではなく、特定のモデルやタスクデザインの脆弱な成果物であると主張する。
これをテストするために,LLMのより広いセットと多数のテスト項目を用いて,ターゲットレプリケーションを行った。
以上の結果から,プロンプト言語はアウトプットに最小限の影響を及ぼし,これらのモデルが基礎的文化的信念を符号化しているというLSZの主張に異議を唱えた。
関連論文リスト
- MyCulture: Exploring Malaysia's Diverse Culture under Low-Resource Language Constraints [7.822567458977689]
MyCultureは、マレーシアの文化に関する大規模言語モデル(LLM)を総合的に評価するために設計されたベンチマークである。
従来のベンチマークとは異なり、MyCultureは未定義のオプションなしで、新しいオープンエンドの複数選択質問フォーマットを採用している。
構造化された出力と自由形式出力のモデル性能を比較して構造バイアスを解析し、多言語的プロンプト変動による言語バイアスを評価する。
論文 参考訳(メタデータ) (2025-08-07T14:17:43Z) - Do Large Language Models Understand Morality Across Cultures? [0.5356944479760104]
本研究では,大規模言語モデルが道徳的視点における異文化間差異や類似性をどの程度捉えているかを検討する。
以上の結果から,現在のLLMは多文化的モラル変動の完全なスペクトルを再現できないことが示唆された。
これらの知見は, LLMのバイアス軽減と文化的代表性向上に向けた, より堅牢なアプローチの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-28T20:25:36Z) - Disentangling Language and Culture for Evaluating Multilingual Large Language Models [48.06219053598005]
本稿では,LLMの多言語機能を包括的に評価するデュアル評価フレームワークを提案する。
言語媒体と文化的文脈の次元に沿って評価を分解することにより、LLMが言語間を横断的に処理する能力の微妙な分析を可能にする。
論文 参考訳(メタデータ) (2025-05-30T14:25:45Z) - From Word to World: Evaluate and Mitigate Culture Bias in LLMs via Word Association Test [50.51344198689069]
我々は,人中心語関連テスト(WAT)を拡張し,異文化間認知による大規模言語モデルのアライメントを評価する。
文化選好に対処するために,モデルの内部表現空間に直接,文化固有の意味的関連性を直接埋め込む革新的なアプローチであるCultureSteerを提案する。
論文 参考訳(メタデータ) (2025-05-24T07:05:10Z) - From Surveys to Narratives: Rethinking Cultural Value Adaptation in LLMs [62.9861554207279]
LLM(Large Language Models)における文化的価値の適応は大きな課題である。
これまでの作業は主に、World Values Survey (WVS)データを使用して、LLMをさまざまな文化的価値と整合させる。
我々は,文化価値適応のためのWVSベースのトレーニングについて検討し,調査データのみに頼って文化規範を実践し,事実知識に干渉することを発見した。
論文 参考訳(メタデータ) (2025-05-22T09:00:01Z) - Cultural Value Differences of LLMs: Prompt, Language, and Model Size [35.176429953825924]
本研究の目的は,大規模言語モデル(LLM)による文化的価値の行動パターンの同定である。
研究された変種には、質問の順序付け、プロンプト言語、モデルサイズが含まれる。
実験の結果,LLMのクエリ言語とモデルサイズが文化的価値の相違をもたらす主な要因であることが判明した。
論文 参考訳(メタデータ) (2024-06-17T12:35:33Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。