論文の概要: Whose Morality Do They Speak? Unraveling Cultural Bias in Multilingual Language Models
- arxiv url: http://arxiv.org/abs/2412.18863v1
- Date: Wed, 25 Dec 2024 10:17:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:29:04.686271
- Title: Whose Morality Do They Speak? Unraveling Cultural Bias in Multilingual Language Models
- Title(参考訳): 言語モデルにおける文化的バイアスの解明
- Authors: Meltem Aksoy,
- Abstract要約: 大規模言語モデル(LLM)は様々な分野において重要なツールとなっているが、その道徳的推論能力はいまだに未熟である。
本研究は, GPT-3.5-Turbo などの多言語 LLM が文化的に特定の道徳的価値観を反映しているか,それとも支配的な道徳的規範を強制するかを検討する。
8つの言語でMFQ-2(Moral Foundations Questionnaire)を改訂し、モデルが6つのコアモラル基礎に忠実であることを分析する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large language models (LLMs) have become integral tools in diverse domains, yet their moral reasoning capabilities across cultural and linguistic contexts remain underexplored. This study investigates whether multilingual LLMs, such as GPT-3.5-Turbo, GPT-4o-mini, Llama 3.1, and MistralNeMo, reflect culturally specific moral values or impose dominant moral norms, particularly those rooted in English. Using the updated Moral Foundations Questionnaire (MFQ-2) in eight languages, Arabic, Farsi, English, Spanish, Japanese, Chinese, French, and Russian, the study analyzes the models' adherence to six core moral foundations: care, equality, proportionality, loyalty, authority, and purity. The results reveal significant cultural and linguistic variability, challenging the assumption of universal moral consistency in LLMs. Although some models demonstrate adaptability to diverse contexts, others exhibit biases influenced by the composition of the training data. These findings underscore the need for culturally inclusive model development to improve fairness and trust in multilingual AI systems.
- Abstract(参考訳): 大規模言語モデル (LLM) は様々な分野において重要なツールとなっているが、文化的・言語的文脈における道徳的推論能力はいまだ未解明のままである。
本研究では, GPT-3.5-Turbo, GPT-4o-mini, Llama 3.1, MistralNeMo などの多言語 LLM が文化的に特定の道徳的価値観を反映しているか,それとも支配的な道徳的規範を課すかを検討する。
アラビア語、ファージ語、英語、スペイン語、日本語、中国語、フランス語、ロシア語の8つの言語で改訂されたモラル基礎質問紙 (MFQ-2) を用いて、この研究はモデルの忠実さを、ケア、平等、比例性、忠誠、権威、純粋さの6つの中核的な道徳的基礎に分析する。
その結果,LLMにおける普遍的道徳的整合性の仮定に挑戦する,文化的・言語的多様性が顕著に示された。
多様な文脈への適応性を示すモデルもあるが、トレーニングデータの構成に影響されるバイアスを示すモデルもある。
これらの知見は、多言語AIシステムにおける公正性と信頼を改善するために、文化的に包括的なモデル開発の必要性を浮き彫りにしている。
関連論文リスト
- Are Rules Meant to be Broken? Understanding Multilingual Moral Reasoning as a Computational Pipeline with UniMoral [17.46198411148926]
道徳的推論は、個々の経験と文化的文脈によって形成された複雑な認知過程である。
このギャップを、心理学的根拠とソーシャルメディア由来の道徳ジレンマを統合した統合データセットUniMoralで埋める。
3つの大きな言語モデル(LLM)を4つのタスクでベンチマーク評価することで、UniMoralの実用性を実証する。
論文 参考訳(メタデータ) (2025-02-19T20:13:24Z) - Global MMLU: Understanding and Addressing Cultural and Linguistic Biases in Multilingual Evaluation [71.59208664920452]
多言語データセットの文化的バイアスは、グローバルベンチマークとしての有効性に重大な課題をもたらす。
MMLUの進歩は西洋中心の概念の学習に大きく依存しており、文化に敏感な知識を必要とする質問の28%がそうである。
改良されたMMLUであるGlobal MMLUをリリースし,42言語を対象に評価を行った。
論文 参考訳(メタデータ) (2024-12-04T13:27:09Z) - Large Language Models as Mirrors of Societal Moral Standards [0.5852077003870417]
言語モデルは、限られた範囲において、様々な文化的文脈において道徳的規範を表現することができる。
本研究は,40か国以上の道徳的視点を包含するWVSとPEWという2つの調査から得られた情報を用いて,これらのモデルの有効性を評価する。
その結果、偏見は単言語モデルと多言語モデルの両方に存在することが示され、それらは通常、多様な文化の道徳的複雑さを正確に捉えるには不十分である。
論文 参考訳(メタデータ) (2024-12-01T20:20:35Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Decoding Multilingual Moral Preferences: Unveiling LLM's Biases Through the Moral Machine Experiment [11.82100047858478]
本稿では,多言語環境下での5つの大規模言語モデルの道徳的嗜好を検討するために,モラルマシン実験(MME)に基づく。
我々は、MMEの6500のシナリオを生成し、どのアクションをとるか10言語でモデルを促す。
我々の分析によると、全てのLLMはある程度異なる道徳的偏見を阻害し、人間の嗜好と異なるだけでなく、モデル自体の複数の言語にもまたがっている。
論文 参考訳(メタデータ) (2024-07-21T14:48:13Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Investigating Cultural Alignment of Large Language Models [10.738300803676655]
LLM(Large Language Models)は,異なる文化で採用されている多様な知識を真にカプセル化していることを示す。
社会学的調査をシミュレートし、実際の調査参加者のモデル応答を参考として、文化的アライメントの定量化を行う。
本稿では,人類学的推論を活用し,文化的アライメントを高める新しい手法である人類学的プロンプティングを紹介する。
論文 参考訳(メタデータ) (2024-02-20T18:47:28Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - Knowledge of cultural moral norms in large language models [3.475552182166427]
各国の道徳規範に関する知識をモノリンガル英語モデルに含める程度について検討する。
我々は、世界価値調査とPEW世界道徳調査の2つの公開データセットを用いて分析を行った。
事前学習された英語モデルは、以前報告された英語の道徳規範よりも、各国の経験的道徳規範を悪化させる。
論文 参考訳(メタデータ) (2023-06-02T18:23:35Z) - Do Multilingual Language Models Capture Differing Moral Norms? [71.52261949766101]
大量多言語文表現は、未処理データの大規模なコーパスに基づいて訓練される。
これは、高資源言語からの道徳的判断を含む文化的価値をモデルが把握する原因となる可能性がある。
特定の言語におけるデータ不足は、ランダムで潜在的に有害な信念を発達させる可能性がある。
論文 参考訳(メタデータ) (2022-03-18T12:26:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。