論文の概要: Are Rules Meant to be Broken? Understanding Multilingual Moral Reasoning as a Computational Pipeline with UniMoral
- arxiv url: http://arxiv.org/abs/2502.14083v1
- Date: Wed, 19 Feb 2025 20:13:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:28:21.791459
- Title: Are Rules Meant to be Broken? Understanding Multilingual Moral Reasoning as a Computational Pipeline with UniMoral
- Title(参考訳): ルールは破られるべきなのか? UniMoral を用いた計算パイプラインとしての多言語モーラル推論を理解する
- Authors: Shivani Kumar, David Jurgens,
- Abstract要約: 道徳的推論は、個々の経験と文化的文脈によって形成された複雑な認知過程である。
このギャップを、心理学的根拠とソーシャルメディア由来の道徳ジレンマを統合した統合データセットUniMoralで埋める。
3つの大きな言語モデル(LLM)を4つのタスクでベンチマーク評価することで、UniMoralの実用性を実証する。
- 参考スコア(独自算出の注目度): 17.46198411148926
- License:
- Abstract: Moral reasoning is a complex cognitive process shaped by individual experiences and cultural contexts and presents unique challenges for computational analysis. While natural language processing (NLP) offers promising tools for studying this phenomenon, current research lacks cohesion, employing discordant datasets and tasks that examine isolated aspects of moral reasoning. We bridge this gap with UniMoral, a unified dataset integrating psychologically grounded and social-media-derived moral dilemmas annotated with labels for action choices, ethical principles, contributing factors, and consequences, alongside annotators' moral and cultural profiles. Recognizing the cultural relativity of moral reasoning, UniMoral spans six languages, Arabic, Chinese, English, Hindi, Russian, and Spanish, capturing diverse socio-cultural contexts. We demonstrate UniMoral's utility through a benchmark evaluations of three large language models (LLMs) across four tasks: action prediction, moral typology classification, factor attribution analysis, and consequence generation. Key findings reveal that while implicitly embedded moral contexts enhance the moral reasoning capability of LLMs, there remains a critical need for increasingly specialized approaches to further advance moral reasoning in these models.
- Abstract(参考訳): 道徳的推論は、個々の経験と文化的文脈によって形成された複雑な認知過程であり、計算分析に固有の課題を提示する。
自然言語処理(NLP)は、この現象を研究するための有望なツールを提供するが、現在の研究は結束を欠いている。
このギャップをUniMoralという,行動選択や倫理的原則,貢献要因,結果などのラベルを付した,心理的基盤と社会メディア由来の道徳的ジレンマを統合した統合データセットと,アノテータの道徳的・文化的プロファイルと組み合わせて埋める。
道徳的推論の文化的相対性を認め、UniMoralは6つの言語(アラビア語、中国語、英語、ヒンディー語、ロシア語、スペイン語)にまたがり、多様な社会文化的文脈を捉えている。
動作予測,モラル型分類,要因帰属分析,結果生成という4つのタスクにわたる3つの大きな言語モデル(LLM)のベンチマーク評価を通じて,UniMoralの実用性を実証する。
主要な発見は、暗黙に埋め込まれた道徳的文脈がLLMの道徳的推論能力を高める一方で、これらのモデルにおける道徳的推論をさらに進めるためには、より専門的なアプローチが不可欠であることを示している。
関連論文リスト
- Whose Morality Do They Speak? Unraveling Cultural Bias in Multilingual Language Models [0.0]
大規模言語モデル(LLM)は様々な分野において重要なツールとなっているが、その道徳的推論能力はいまだに未熟である。
本研究は, GPT-3.5-Turbo などの多言語 LLM が文化的に特定の道徳的価値観を反映しているか,それとも支配的な道徳的規範を強制するかを検討する。
8つの言語でMFQ-2(Moral Foundations Questionnaire)を改訂し、モデルが6つのコアモラル基礎に忠実であることを分析する。
論文 参考訳(メタデータ) (2024-12-25T10:17:15Z) - Large Language Models as Mirrors of Societal Moral Standards [0.5852077003870417]
言語モデルは、限られた範囲において、様々な文化的文脈において道徳的規範を表現することができる。
本研究は,40か国以上の道徳的視点を包含するWVSとPEWという2つの調査から得られた情報を用いて,これらのモデルの有効性を評価する。
その結果、偏見は単言語モデルと多言語モデルの両方に存在することが示され、それらは通常、多様な文化の道徳的複雑さを正確に捉えるには不十分である。
論文 参考訳(メタデータ) (2024-12-01T20:20:35Z) - The Moral Foundations Weibo Corpus [0.0]
道徳的な感情は、オンライン環境とオフライン環境の両方に影響し、行動スタイルと相互作用パターンを形成する。
既存のコーパスは価値はあるものの、しばしば言語的な制限に直面している。
このコーパスは、Weiboに関する25,671の中国語のコメントで構成され、6つの多様な話題領域を含んでいる。
論文 参考訳(メタデータ) (2024-11-14T17:32:03Z) - A Survey on Moral Foundation Theory and Pre-Trained Language Models: Current Advances and Challenges [2.435021773579434]
道徳的価値は初期の文明に深く根ざし、社会秩序と共通の善を規制する規範や法則の中で成文化された。
モラル・ファンデーション理論(MFT)は、異なる文化が個人や社会生活を形作る方法の基礎となる道徳的基盤を識別する確立した枠組みである。
自然言語処理,特にプレトレーニング言語モデル(PLM)の最近の進歩は,テキストデータから道徳的次元の抽出と分析を可能にしている。
論文 参考訳(メタデータ) (2024-09-20T14:03:06Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Extrinsic Evaluation of Cultural Competence in Large Language Models [53.626808086522985]
本稿では,2つのテキスト生成タスクにおける文化能力の評価に焦点をあてる。
我々は,文化,特に国籍の明示的なキューが,そのプロンプトに乱入している場合のモデル出力を評価する。
異なる国におけるアウトプットのテキスト類似性とこれらの国の文化的価値との間には弱い相関関係がある。
論文 参考訳(メタデータ) (2024-06-17T14:03:27Z) - CIVICS: Building a Dataset for Examining Culturally-Informed Values in Large Language Models [59.22460740026037]
大規模言語モデル(LLM)の社会的・文化的変動を評価するためのデータセット「CIVICS:文化インフォームド・バリュース・インクルーシブ・コーパス・フォー・ソシエティ・インパクト」
我々は、LGBTQIの権利、社会福祉、移民、障害権利、代理など、特定の社会的に敏感なトピックに対処する、手作りの多言語プロンプトのデータセットを作成します。
論文 参考訳(メタデータ) (2024-05-22T20:19:10Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。