論文の概要: Cultural Bias in Large Language Models: Evaluating AI Agents through Moral Questionnaires
- arxiv url: http://arxiv.org/abs/2507.10073v2
- Date: Thu, 31 Jul 2025 03:13:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-01 15:10:45.232209
- Title: Cultural Bias in Large Language Models: Evaluating AI Agents through Moral Questionnaires
- Title(参考訳): 大規模言語モデルにおける文化的バイアス:道徳的アンケートによるAIエージェントの評価
- Authors: Simon Münker,
- Abstract要約: 大きな言語モデルは、言語能力にもかかわらず、多様な文化的道徳的枠組みを表現できない。
驚くべきことに、モデルのサイズが大きくなることは、文化的な表現の忠実さを継続的に改善するわけではない。
我々の結果は、AIシステムが多様な人間の価値を表すことを保証するために、より基礎的なアライメント目標と評価指標を求めている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Are AI systems truly representing human values, or merely averaging across them? Our study suggests a concerning reality: Large Language Models (LLMs) fail to represent diverse cultural moral frameworks despite their linguistic capabilities. We expose significant gaps between AI-generated and human moral intuitions by applying the Moral Foundations Questionnaire across 19 cultural contexts. Comparing multiple state-of-the-art LLMs' origins against human baseline data, we find these models systematically homogenize moral diversity. Surprisingly, increased model size doesn't consistently improve cultural representation fidelity. Our findings challenge the growing use of LLMs as synthetic populations in social science research and highlight a fundamental limitation in current AI alignment approaches. Without data-driven alignment beyond prompting, these systems cannot capture the nuanced, culturally-specific moral intuitions. Our results call for more grounded alignment objectives and evaluation metrics to ensure AI systems represent diverse human values rather than flattening the moral landscape.
- Abstract(参考訳): AIシステムは本当に人間の価値を表しているのか、それとも単に平均化しているだけなのか?
大規模言語モデル(LLM)は、言語能力にもかかわらず、多様な文化的道徳的枠組みを表現できない。
モラル・ファウンデーションズ・アンケート(Moral Foundations Questionnaire)を19の文化的文脈に適用することにより、AI生成と人間の道徳的直観の間に大きなギャップを露呈する。
複数の最先端のLSMの起源と人間のベースラインデータを比較すると、これらのモデルは体系的に道徳的多様性を均質化する。
驚くべきことに、モデルのサイズが大きくなることは、文化的な表現の忠実さを継続的に改善するわけではない。
我々の研究は、社会科学研究における合成人口としてのLLMの利用の増加に挑戦し、現在のAIアライメントアプローチにおける根本的な制限を強調した。
データ駆動のアライメントがなければ、これらのシステムは、微妙で文化的に特有の道徳的直観を捉えることはできない。
われわれの結果は、AIシステムが道徳的景観を平らにするのではなく、多様な人間の価値を表現することを保証するために、より基礎的なアライメント目標と評価指標を求めている。
関連論文リスト
- Large Language Models as Mirrors of Societal Moral Standards [0.5852077003870417]
言語モデルは、限られた範囲において、様々な文化的文脈において道徳的規範を表現することができる。
本研究は,40か国以上の道徳的視点を包含するWVSとPEWという2つの調査から得られた情報を用いて,これらのモデルの有効性を評価する。
その結果、偏見は単言語モデルと多言語モデルの両方に存在することが示され、それらは通常、多様な文化の道徳的複雑さを正確に捉えるには不十分である。
論文 参考訳(メタデータ) (2024-12-01T20:20:35Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Culturally-Attuned Moral Machines: Implicit Learning of Human Value
Systems by AI through Inverse Reinforcement Learning [11.948092546676687]
AIの価値体系は文化的に直感的であるべきだと我々は主張する。
AIシステムは、人間の観察とインタラクションからこのようなコードを取得するのか、まだ未解決のままだ。
本研究では,ある文化集団の平均行動から学習したAIエージェントが,その集団の行動に反映した利他的特性を得ることができることを示す。
論文 参考訳(メタデータ) (2023-12-29T05:39:10Z) - Learning Human-like Representations to Enable Learning Human Values [11.236150405125754]
我々は,人間とAIエージェントの表現的アライメントが人的価値の学習に与える影響を考察する。
このような表現的アライメントは、パーソナライゼーションの文脈において、人間の価値を安全に学習し、探索する上で有効であることを示す。
論文 参考訳(メタデータ) (2023-12-21T18:31:33Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。