論文の概要: Comparing Moral Values in Western English-speaking societies and LLMs with Word Associations
- arxiv url: http://arxiv.org/abs/2505.19674v2
- Date: Wed, 28 May 2025 06:05:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 12:33:41.749912
- Title: Comparing Moral Values in Western English-speaking societies and LLMs with Word Associations
- Title(参考訳): 英語を話す西欧社会とLLMにおける道徳的価値の比較
- Authors: Chaoyi Xiang, Chunhua Liu, Simon De Deyne, Lea Frermann,
- Abstract要約: 主に英語データに基づいて学習した西英語コミュニティとLLMの関連性について検討した。
モラル基礎理論から派生したシードワードに基づく道徳的価値を伝播する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 8.445222972341803
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As the impact of large language models increases, understanding the moral values they reflect becomes ever more important. Assessing the nature of moral values as understood by these models via direct prompting is challenging due to potential leakage of human norms into model training data, and their sensitivity to prompt formulation. Instead, we propose to use word associations, which have been shown to reflect moral reasoning in humans, as low-level underlying representations to obtain a more robust picture of LLMs' moral reasoning. We study moral differences in associations from western English-speaking communities and LLMs trained predominantly on English data. First, we create a large dataset of LLM-generated word associations, resembling an existing data set of human word associations. Next, we propose a novel method to propagate moral values based on seed words derived from Moral Foundation Theory through the human and LLM-generated association graphs. Finally, we compare the resulting moral conceptualizations, highlighting detailed but systematic differences between moral values emerging from English speakers and LLM associations.
- Abstract(参考訳): 大きな言語モデルの影響が大きくなるにつれて、それらが反映する道徳的価値を理解することがますます重要になる。
これらのモデルで理解されている道徳的価値の性質を直接的プロンプトによって評価することは、モデルトレーニングデータに人間の規範が漏洩する可能性があること、そしてそれらのフォーミュレーションへの敏感さによって困難である。
その代わり、人間の道徳的推論を反映した単語関連を低レベルな基礎表現として用いて、LLMの道徳的推論をより堅牢に表現することを提案する。
我々は、西英語を話すコミュニティと、主に英語データに基づいて訓練されたLLMとの関連性における道徳的差異について研究した。
まず,LLM生成した単語アソシエーションの大規模なデータセットを作成し,既存の人間の単語アソシエーションのデータセットに類似する。
次に,Moral Foundation Theory から派生したシードワードを人間およびLLM生成関連グラフを通じて伝達する新たな手法を提案する。
最後に、得られた道徳的概念化を比較し、英語話者とLLM協会から生じる道徳的価値の詳細な、しかし体系的な相違を強調した。
関連論文リスト
- From Stability to Inconsistency: A Study of Moral Preferences in LLMs [4.12484724941528]
本稿では,Moral Foundations LLM データセット (MFD-LLM) について紹介する。
実世界の道徳ジレンマに答えることで,LLMが明らかにした道徳的嗜好のスペクトルをフルに把握する新しい評価手法を提案する。
以上の結果から,最先端モデルは極めて均一な値優先性を持つが,一貫性の欠如は明らかである。
論文 参考訳(メタデータ) (2025-04-08T11:52:50Z) - Normative Evaluation of Large Language Models with Everyday Moral Dilemmas [0.0]
Reddit 上の "Am I the Asshole" (AITA) コミュニティから得られた複雑で日常的な道徳的ジレンマに基づいて,大規模言語モデル (LLM) を評価する。
以上の結果から,AITAサブレディットにおける人的評価とは大きく異なる,大きな言語モデルでは道徳的判断のパターンが異なることが示唆された。
論文 参考訳(メタデータ) (2025-01-30T01:29:46Z) - Histoires Morales: A French Dataset for Assessing Moral Alignment [6.521941403514571]
ヒストワール・モラレス(Histoires Morales)は、モラル・ストーリーから派生したフランスのデータセットである。
我々は、そのデータセット内の道徳的価値のアノテーションに依存して、フランスの規範との整合性を確保する。
LLMはデフォルトでは人間の道徳的規範と一致しているが、道徳的データと不道徳データの両方において、ユーザ・参照の最適化の影響を受けやすい。
論文 参考訳(メタデータ) (2025-01-28T18:07:30Z) - M$^3$oralBench: A MultiModal Moral Benchmark for LVLMs [66.78407469042642]
LVLMのための最初のMultiModal Moral BenchmarkであるM$3$oralBenchを紹介する。
M$3$oralBench は Moral Foundations Vignettes (MFVs) の日常的なモラルシナリオを拡張し、テキストから画像への拡散モデル SD3.0 を用いて対応するシナリオイメージを作成する。
道徳基礎理論(MFT)の6つの道徳的基礎にまたがって道徳的評価を行い、道徳的判断、道徳的分類、道徳的対応の課題を含む。
論文 参考訳(メタデータ) (2024-12-30T05:18:55Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Language Model Alignment in Multilingual Trolley Problems [138.5684081822807]
Moral Machine 実験に基づいて,MultiTP と呼ばれる100以上の言語でモラルジレンマヴィグネットの言語間コーパスを開発する。
分析では、19の異なるLLMと人間の判断を一致させ、6つのモラル次元をまたいだ嗜好を捉えた。
我々は、AIシステムにおける一様道徳的推論の仮定に挑戦し、言語間のアライメントの顕著なばらつきを発見した。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Moral Mimicry: Large Language Models Produce Moral Rationalizations
Tailored to Political Identity [0.0]
本研究は,アメリカの政治集団に付随する道徳的偏見を,大規模言語モデルが再現するかどうかを考察する。
モラル・ファンデーションズ・セオリー(英語版)の道具を用いて、これらのLSMは確かに道徳的な模倣であることを示した。
論文 参考訳(メタデータ) (2022-09-24T23:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。