論文の概要: Do Large Language Models Understand Morality Across Cultures?
- arxiv url: http://arxiv.org/abs/2507.21319v1
- Date: Mon, 28 Jul 2025 20:25:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.267673
- Title: Do Large Language Models Understand Morality Across Cultures?
- Title(参考訳): 大規模言語モデルは文化のモラルを理解するか?
- Authors: Hadi Mohammadi, Yasmeen F. S. S. Meijer, Efthymia Papadopoulou, Ayoub Bagheri,
- Abstract要約: 本研究では,大規模言語モデルが道徳的視点における異文化間差異や類似性をどの程度捉えているかを検討する。
以上の結果から,現在のLLMは多文化的モラル変動の完全なスペクトルを再現できないことが示唆された。
これらの知見は, LLMのバイアス軽減と文化的代表性向上に向けた, より堅牢なアプローチの必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 0.5356944479760104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in large language models (LLMs) have established them as powerful tools across numerous domains. However, persistent concerns about embedded biases, such as gender, racial, and cultural biases arising from their training data, raise significant questions about the ethical use and societal consequences of these technologies. This study investigates the extent to which LLMs capture cross-cultural differences and similarities in moral perspectives. Specifically, we examine whether LLM outputs align with patterns observed in international survey data on moral attitudes. To this end, we employ three complementary methods: (1) comparing variances in moral scores produced by models versus those reported in surveys, (2) conducting cluster alignment analyses to assess correspondence between country groupings derived from LLM outputs and survey data, and (3) directly probing models with comparative prompts using systematically chosen token pairs. Our results reveal that current LLMs often fail to reproduce the full spectrum of cross-cultural moral variation, tending to compress differences and exhibit low alignment with empirical survey patterns. These findings highlight a pressing need for more robust approaches to mitigate biases and improve cultural representativeness in LLMs. We conclude by discussing the implications for the responsible development and global deployment of LLMs, emphasizing fairness and ethical alignment.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、多数のドメインにまたがる強力なツールとして確立されている。
しかし、教育データから生じる性別、人種、文化的偏見などの埋没バイアスに対する懸念は、これらの技術の倫理的利用と社会的帰結に関する重要な疑問を提起する。
本研究では,LLMが道徳的視点において,異文化間の差異や類似性をどの程度捉えているかを検討する。
具体的には、LLMのアウトプットが、道徳的態度に関する国際調査データに見られるパターンと一致しているかを検討する。
そこで本研究では,(1)モデルが生成するモラルスコアの変動を,(2)LCM出力とサーベイデータから得られた国別グループ間の対応性を評価するクラスタアライメント分析,(3)体系的に選択されたトークンペアを用いて,比較プロンプトを用いたモデルを直接探索する,という3つの相補的な手法を用いる。
以上の結果から,現在のLLMは多文化的モラル変動の完全なスペクトルを再現できず,差異を圧縮し,経験的調査パターンとの整合性が低いことが示唆された。
これらの知見は, LLMのバイアス軽減と文化的代表性向上に向けた, より堅牢なアプローチの必要性を浮き彫りにしている。
我々は、LCMの責任ある開発とグローバル展開の意義について議論し、公正性と倫理的整合性を強調した。
関連論文リスト
- Exploring Cultural Variations in Moral Judgments with Large Language Models [0.5356944479760104]
対数確率に基づく道徳的正当性スコアを用いて、各モデルのアウトプットを、幅広い倫理的トピックをカバーする調査データと相関付けする。
以上の結果から, 早期モデルや小型モデルでは, 人的判断とほぼゼロに近い相関や負の相関が生じることが示唆された。
高度な命令調整モデル(GPT-4oやGPT-4o-miniを含む)は、かなり高い正の相関を達成し、現実世界の道徳的態度をよりよく反映している。
論文 参考訳(メタデータ) (2025-06-14T10:16:48Z) - Sometimes the Model doth Preach: Quantifying Religious Bias in Open LLMs through Demographic Analysis in Asian Nations [8.769839351949997]
大きな言語モデル(LLM)は、意見を生成し、バイアスを無意識に伝播することができる。
本研究は,LLMが生み出す意見を定量的に分析する手法を提案する。
Llama や Mistral のような近代的でオープンな LLM を世界各国で実施した調査で評価した。
論文 参考訳(メタデータ) (2025-03-10T16:32:03Z) - Fairness in LLM-Generated Surveys [0.5720786928479238]
大規模言語モデル(LLM)は、特に社会・政治・経済のパターンをシミュレートするテキスト生成と理解において優れている。
本研究は,チリと米国からの公的調査を分析した結果,LLMが多種多様な個体群でどのように機能するかを検討した。
政治的アイデンティティと人種は予測精度に大きな影響を与え、チリではジェンダー、教育、宗教関係はより顕著な役割を担っている。
論文 参考訳(メタデータ) (2025-01-25T23:42:20Z) - LLMs as mirrors of societal moral standards: reflection of cultural divergence and agreement across ethical topics [0.5852077003870417]
大規模言語モデル(LLM)は、そのパフォーマンス能力の最近の進歩により、様々な領域においてますます重要になっている。
本研究は,LLMが道徳的視点において,異文化間の差異や類似性を正確に反映しているかどうかを考察する。
論文 参考訳(メタデータ) (2024-12-01T20:39:42Z) - Large Language Models as Mirrors of Societal Moral Standards [0.5852077003870417]
言語モデルは、限られた範囲において、様々な文化的文脈において道徳的規範を表現することができる。
本研究は,40か国以上の道徳的視点を包含するWVSとPEWという2つの調査から得られた情報を用いて,これらのモデルの有効性を評価する。
その結果、偏見は単言語モデルと多言語モデルの両方に存在することが示され、それらは通常、多様な文化の道徳的複雑さを正確に捉えるには不十分である。
論文 参考訳(メタデータ) (2024-12-01T20:20:35Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。