論文の概要: One Model, Many Morals: Uncovering Cross-Linguistic Misalignments in Computational Moral Reasoning
- arxiv url: http://arxiv.org/abs/2509.21443v1
- Date: Thu, 25 Sep 2025 19:14:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.9296
- Title: One Model, Many Morals: Uncovering Cross-Linguistic Misalignments in Computational Moral Reasoning
- Title(参考訳): 一つのモデルと多くのモラル:計算的モラル推論における言語横断的ミスサライメントの発見
- Authors: Sualeha Farid, Jayden Lin, Zean Chen, Shivani Kumar, David Jurgens,
- Abstract要約: 大規模言語モデル(LLM)における言語が道徳的意思決定をどのように仲介するかを検討する。
我々の分析は、LLMの言語間の道徳的判断に重大な矛盾があることを示し、しばしば文化的不一致を反映している。
我々は、私たちの洞察を、より文化的に認識されたAIを要求する道徳的推論エラーの構造化されたタイプロジーに精査する。
- 参考スコア(独自算出の注目度): 23.56514813420256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly deployed in multilingual and multicultural environments where moral reasoning is essential for generating ethically appropriate responses. Yet, the dominant pretraining of LLMs on English-language data raises critical concerns about their ability to generalize judgments across diverse linguistic and cultural contexts. In this work, we systematically investigate how language mediates moral decision-making in LLMs. We translate two established moral reasoning benchmarks into five culturally and typologically diverse languages, enabling multilingual zero-shot evaluation. Our analysis reveals significant inconsistencies in LLMs' moral judgments across languages, often reflecting cultural misalignment. Through a combination of carefully constructed research questions, we uncover the underlying drivers of these disparities, ranging from disagreements to reasoning strategies employed by LLMs. Finally, through a case study, we link the role of pretraining data in shaping an LLM's moral compass. Through this work, we distill our insights into a structured typology of moral reasoning errors that calls for more culturally-aware AI.
- Abstract(参考訳): 大規模言語モデル(LLM)は、倫理的に適切な応答を生成するために道徳的推論が不可欠である多言語・多文化環境において、ますます多くデプロイされている。
しかし、LLMの英語データに対する支配的な事前訓練は、様々な言語や文化の文脈で判断を一般化する能力について批判的な懸念を提起する。
本研究では,LLMにおいて言語が道徳的意思決定をどのように仲介するかを体系的に検討する。
確立された道徳的推論ベンチマークを5つの文化的・類型的多言語に翻訳し,多言語ゼロショット評価を可能にした。
我々の分析は、LLMの言語間の道徳的判断に重大な矛盾があることを示し、しばしば文化的不一致を反映している。
慎重に構築された研究課題を組み合わせることで、これらの格差の根底にある要因が明らかになった。
最後に、ケーススタディを通じて、LLMの道徳的コンパスを形成するための事前学習データの役割をリンクする。
この研究を通じて、私たちの洞察を、より文化的に認識されたAIを要求する道徳的推論エラーの構造化されたタイプロジーに精査する。
関連論文リスト
- MFTCXplain: A Multilingual Benchmark Dataset for Evaluating the Moral Reasoning of LLMs through Hate Speech Multi-hop Explanations [1.7655314759504603]
本稿では,Large Language Models (LLM) の道徳的推論を評価するためのベンチマークデータセットを提案する。
このデータセットは、ポルトガル語、イタリア語、ペルシア語、英語の3000のツイートで構成され、二進的ヘイトスピーチラベル、道徳カテゴリー、テキストスパンレベルの合理性で注釈付けされている。
実証的な結果は、道徳的推論タスクにおけるLLM出力と人間のアノテーションの相違を浮き彫りにする。
論文 参考訳(メタデータ) (2025-06-23T19:44:21Z) - Are Rules Meant to be Broken? Understanding Multilingual Moral Reasoning as a Computational Pipeline with UniMoral [17.46198411148926]
道徳的推論は、個々の経験と文化的文脈によって形成された複雑な認知過程である。
このギャップを、心理学的根拠とソーシャルメディア由来の道徳ジレンマを統合した統合データセットUniMoralで埋める。
3つの大きな言語モデル(LLM)を4つのタスクでベンチマーク評価することで、UniMoralの実用性を実証する。
論文 参考訳(メタデータ) (2025-02-19T20:13:24Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。