論文の概要: Knowledge of cultural moral norms in large language models
- arxiv url: http://arxiv.org/abs/2306.01857v1
- Date: Fri, 2 Jun 2023 18:23:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 23:41:45.137620
- Title: Knowledge of cultural moral norms in large language models
- Title(参考訳): 大言語モデルにおける文化的道徳規範の知識
- Authors: Aida Ramezani, Yang Xu
- Abstract要約: 各国の道徳規範に関する知識をモノリンガル英語モデルに含める程度について検討する。
我々は、世界価値調査とPEW世界道徳調査の2つの公開データセットを用いて分析を行った。
事前学習された英語モデルは、以前報告された英語の道徳規範よりも、各国の経験的道徳規範を悪化させる。
- 参考スコア(独自算出の注目度): 3.475552182166427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Moral norms vary across cultures. A recent line of work suggests that English
large language models contain human-like moral biases, but these studies
typically do not examine moral variation in a diverse cultural setting. We
investigate the extent to which monolingual English language models contain
knowledge about moral norms in different countries. We consider two levels of
analysis: 1) whether language models capture fine-grained moral variation
across countries over a variety of topics such as ``homosexuality'' and
``divorce''; 2) whether language models capture cultural diversity and shared
tendencies in which topics people around the globe tend to diverge or agree on
in their moral judgment. We perform our analyses with two public datasets from
the World Values Survey (across 55 countries) and PEW global surveys (across 40
countries) on morality. We find that pre-trained English language models
predict empirical moral norms across countries worse than the English moral
norms reported previously. However, fine-tuning language models on the survey
data improves inference across countries at the expense of a less accurate
estimate of the English moral norms. We discuss the relevance and challenges of
incorporating cultural knowledge into the automated inference of moral norms.
- Abstract(参考訳): 道徳規範は文化によって異なる。
最近の研究の行は、英語の大規模言語モデルは人間のような道徳的偏見を含んでいることを示唆しているが、これらの研究は通常、多様な文化的環境における道徳的変動を調査しない。
各国の道徳規範に関する知識をモノリンガル英語モデルに含める程度について検討する。
分析の2つのレベルを考えます
1)言語モデルが「ホモセクシュアリティ」や「ディヴォース」といった様々な話題について、各国の微妙な道徳変動を捉えているか。
2) 言語モデルが文化的多様性を捉えているか, 世界中の人々が道徳的判断において意見の相違や意見の相違が生じる傾向にあるか。
世界価値観調査(55か国)と、道徳に関するpewグローバル調査(40か国)の2つの公開データセットを用いて分析を行った。
事前学習された英語モデルは、以前報告された英語の道徳規範よりも、各国の経験的道徳規範を悪化させる。
しかし、調査データに基づく微調整言語モデルは、イングランドの道徳規範のより正確な推定を犠牲にして、各国での推論を改善する。
モラル規範の自動推論に文化的知識を取り入れることの関連性と課題について論じる。
関連論文リスト
- MoralBERT: Detecting Moral Values in Social Discourse [3.0567348883549816]
道徳は、私たちの決定や判断に大きな影響を与えながら、情報をどのように知覚するかにおいて、基本的な役割を担います。
自然言語処理の最近の進歩は、道徳的価値を人間の生成したテキストコンテンツで測定できることを実証している。
そこで本研究では,MoralBERTと呼ばれるテキストの道徳的ニュアンスを正確に捉えるために,微調整された言語表現モデルを設計する。
私たちは、Twitter、Reddit、Facebookの3つの異なるソースからの注釈付き道徳データを活用しています。
論文 参考訳(メタデータ) (2024-03-12T14:12:59Z) - Not All Countries Celebrate Thanksgiving: On the Cultural Dominance in
Large Language Models [89.94270049334479]
本稿では,大規模言語モデル(LLM)における文化的優位性について述べる。
LLMは、ユーザーが非英語で尋ねるときに期待する文化とは無関係な、不適切な英語文化関連の回答を提供することが多い。
論文 参考訳(メタデータ) (2023-10-19T05:38:23Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through
the Lens of Moral Theories? [82.30392883508925]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチはボトムアップ方式で実装されている。
トップダウンのアプローチは、一連の原則に基づく道徳的な判断を下します。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Speaking Multiple Languages Affects the Moral Bias of Language Models [70.94372902010232]
事前訓練された多言語言語モデル(PMLM)は、複数の言語からのデータや言語間転送を扱う際に一般的に用いられる。
モデルは英語から道徳的規範を捉え、他の言語に強制するか?
我々の実験は、事実、PMLMが道徳的バイアスを符号化していることを示しているが、これらは必ずしも人間の意見の文化的相違や共通点に対応しているわけではない。
論文 参考訳(メタデータ) (2022-11-14T20:08:54Z) - NormSAGE: Multi-Lingual Multi-Cultural Norm Discovery from Conversations
On-the-Fly [61.77957329364812]
本稿では,対話型多言語・多文化規範発見の新たな課題に対処する枠組みを提案する。
NormSAGEはノルム発見タスクと会話コンテキストを表す有向質問を通じてノルムに関する知識を導き出す。
さらに、発見される規範が正しいことを保証する自己検証メカニズムにより、言語モデル幻覚のリスクに対処する。
論文 参考訳(メタデータ) (2022-10-16T18:30:05Z) - Do Multilingual Language Models Capture Differing Moral Norms? [71.52261949766101]
大量多言語文表現は、未処理データの大規模なコーパスに基づいて訓練される。
これは、高資源言語からの道徳的判断を含む文化的価値をモデルが把握する原因となる可能性がある。
特定の言語におけるデータ不足は、ランダムで潜在的に有害な信念を発達させる可能性がある。
論文 参考訳(メタデータ) (2022-03-18T12:26:37Z) - Identifying Morality Frames in Political Tweets using Relational
Learning [27.047907641503762]
道徳的感情はその目標によって動機付けられ、個人または集団的実体に対応することができる。
異なる主体に向けられた道徳的態度を組織化するための表現枠組みである道徳的枠組みを導入する。
本研究では,関係学習モデルを提案し,実体や道徳的基礎に対する道徳的態度を共同で予測する。
論文 参考訳(メタデータ) (2021-09-09T19:48:57Z) - Morality-based Assertion and Homophily on Social Media: A Cultural
Comparison between English and Japanese Languages [8.22469542459168]
ソーシャルメディアプラットフォームであるTwitterを用いて、日本人ユーザーと英語ユーザーの道徳行動を比較した。
日本のユーザーのツイートは、フェアネス、イングループ、純粋さが比較的高かった。
道徳に関する感情に関しては、英語のつぶやきはあらゆる道徳的次元に対してより肯定的な感情を表現している。
論文 参考訳(メタデータ) (2021-08-24T11:07:46Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Text-based inference of moral sentiment change [11.188112005462536]
本研究では、縦型コーパスを用いて、一般大衆の道徳的感情変化を調査するためのテキストベースの枠組みを提案する。
ダイアクロニックな単語の埋め込みから学んだ道徳的バイアスを探索することで方法論を構築します。
我々の研究は、社会における道徳的感情の変化を特徴づけるために自然言語処理を適用する機会を提供する。
論文 参考訳(メタデータ) (2020-01-20T18:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。