論文の概要: Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models
- arxiv url: http://arxiv.org/abs/2310.12481v2
- Date: Fri, 16 Feb 2024 14:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 20:08:37.946343
- Title: Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models
- Title(参考訳): すべての国が感謝祭を祝うわけではない:大規模言語モデルにおける文化的支配について
- Authors: Wenxuan Wang, Wenxiang Jiao, Jingyuan Huang, Ruyi Dai, Jen-tse Huang,
Zhaopeng Tu, Michael R. Lyu
- Abstract要約: 本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
- 参考スコア(独自算出の注目度): 89.94270049334479
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper identifies a cultural dominance issue within large language models
(LLMs) due to the predominant use of English data in model training (e.g.,
ChatGPT). LLMs often provide inappropriate English-culture-related answers that
are not relevant to the expected culture when users ask in non-English
languages. To systematically evaluate the cultural dominance issue, we build a
benchmark of concrete (e.g., holidays and songs) and abstract (e.g., values and
opinions) cultural objects. Empirical results show that the representative GPT
models suffer from the culture dominance problem, where GPT-4 is the most
affected while text-davinci-003 suffers the least from this problem. Our study
emphasizes the need to critically examine cultural dominance and ethical
consideration in their development and deployment. We show that two
straightforward methods in model development (i.e., pretraining on more diverse
data) and deployment (e.g., culture-aware prompting) can significantly mitigate
the cultural dominance issue in LLMs.
- Abstract(参考訳): 本稿では,大規模言語モデル(llm)において,モデル学習における英語データの利用が優勢であることから,文化的な優位の問題を明らかにする。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
文化的優越問題を体系的に評価するために,具体的(休日や歌など)と抽象的(価値観や意見など)の文化的対象のベンチマークを構築した。
その結果, GPT-4が最も影響を受けやすいのに対して, テキストダヴィンチ003は最も影響を受けにくい文化支配問題に代表される GPT モデルが悩まされていることがわかった。
本研究は,その開発と展開における文化的支配と倫理的考察を批判的に検討することの必要性を強調する。
モデル開発における2つの簡単な方法(例えば、より多様なデータへの事前学習)とデプロイ(文化認識プロンプト)は、llmの文化的支配問題を著しく軽減できることを示します。
関連論文リスト
- Investigating Cultural Alignment of Large Language Models [11.730822193746826]
LLM(Large Language Models)は,異なる文化で採用されている多様な知識を真にカプセル化していることを示す。
社会学的調査をシミュレートし、実際の調査参加者のモデル応答を参考として、文化的アライメントの定量化を行う。
本稿では,人類学的推論を活用し,文化的アライメントを高める新しい手法である人類学的プロンプティングを紹介する。
論文 参考訳(メタデータ) (2024-02-20T18:47:28Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - CultureLLM: Incorporating Cultural Differences into Large Language
Models [39.33251733412784]
CultureLLMは、大きな言語モデルに文化的差異を組み込むためのコスト効率の良いソリューションである。
我々の人間による研究は、生成されたサンプルが元のサンプルと意味的に等価であることを示している。
論文 参考訳(メタデータ) (2024-02-09T04:02:43Z) - Auditing and Mitigating Cultural Bias in LLMs [1.024113475677323]
GPT-4,3.5,3は、英語とプロテスタントのヨーロッパ諸国に類似した文化的価値を示す。
生成的AIの文化的偏見を回避するため,文化マッチングと進行中の文化監査を併用することを提案する。
論文 参考訳(メタデータ) (2023-11-23T16:45:56Z) - SeaEval for Multilingual Foundation Models: From Cross-Lingual Alignment
to Cultural Reasoning [46.77313884422073]
SeaEvalは多言語基盤モデルのベンチマークである。
これらのモデルがどのように理解し、自然言語で推論するかを特徴付ける。
また、文化の実践やニュアンス、価値観をいかに理解したかについても検討する。
論文 参考訳(メタデータ) (2023-09-09T11:42:22Z) - CREHate: A CRoss-cultural English Hate Speech Dataset [46.386059125840376]
ほとんどのNLPデータセットは言語話者の文化的多様性を無視しており、ヘイトスピーチ検出において重大な欠点をもたらす。
そこで本研究では,CRoss文化の英語Hate音声データセットであるCREHateを紹介する。
論文 参考訳(メタデータ) (2023-08-31T13:14:47Z) - Cultural Alignment in Large Language Models: An Explanatory Analysis
Based on Hofstede's Cultural Dimensions [11.17369336069962]
提案された文化的アライメントテスト(CAT)は、ホフステデの文化的次元の枠組みを用いて文化的アライメントを定量化する。
我々は、各国の多様な文化にまたがる最先端の大規模言語モデル(LLM)に埋め込まれた文化的価値を評価するために、我々のアプローチを適用した。
論文 参考訳(メタデータ) (2023-08-25T14:50:13Z) - On the Cultural Gap in Text-to-Image Generation [75.69755281031951]
テキスト・トゥ・イメージ(T2I)生成における課題のひとつは、トレーニングデータに存在する文化ギャップの意図しない反映である。
クロスカルチャー画像を生成するT2Iモデルの能力を体系的に評価するベンチマークは存在しない。
本稿では,モデルが対象文化にどの程度適しているかを評価するため,包括的評価基準付きChallenging Cross-Cultural (C3)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-07-06T13:17:55Z) - Assessing Cross-Cultural Alignment between ChatGPT and Human Societies:
An Empirical Study [9.919972416590124]
ChatGPTは、対話で人間のような反応を生成できるという異常な能力で広く認知されている。
そこで我々は,ChatGPTの文化的背景を,人間の文化的差異を定量化するための質問に対する応答の分析によって検討した。
論文 参考訳(メタデータ) (2023-03-30T15:43:39Z) - Probing Pre-Trained Language Models for Cross-Cultural Differences in
Values [42.45033681054207]
我々は、事前学習言語モデルにどの文化にわたってどの価値が埋め込まれているかを調査するためにプローブを導入する。
PTLMは文化全体における価値の差異を捉えているが、確立した価値調査と弱く一致しているだけである。
論文 参考訳(メタデータ) (2022-03-25T15:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。