論文の概要: Divine LLaMAs: Bias, Stereotypes, Stigmatization, and Emotion Representation of Religion in Large Language Models
- arxiv url: http://arxiv.org/abs/2407.06908v1
- Date: Tue, 9 Jul 2024 14:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 17:47:35.249606
- Title: Divine LLaMAs: Bias, Stereotypes, Stigmatization, and Emotion Representation of Religion in Large Language Models
- Title(参考訳): 多様なLLaMA: バイアス、ステレオタイプ、スティグマタイズ、および大規模言語モデルにおける宗教の感情表現
- Authors: Flor Miriam Plaza-del-Arco, Amanda Cercas Curry, Susanna Paoli, Alba Curry, Dirk Hovy,
- Abstract要約: 社会文化的体系としての宗教は、その信者に対する信念と価値観の集合を規定している。
私たちの価値観についてほとんど言及していないジェンダーとは違い、宗教はその信条と信条のセットを定めている。
アメリカやヨーロッパ諸国の主要な宗教は、よりニュアンスで表現されている。
ヒンドゥー教や仏教のような東方宗教は強くステレオタイプ化されている。
- 参考スコア(独自算出の注目度): 19.54202714712677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotions play important epistemological and cognitive roles in our lives, revealing our values and guiding our actions. Previous work has shown that LLMs display biases in emotion attribution along gender lines. However, unlike gender, which says little about our values, religion, as a socio-cultural system, prescribes a set of beliefs and values for its followers. Religions, therefore, cultivate certain emotions. Moreover, these rules are explicitly laid out and interpreted by religious leaders. Using emotion attribution, we explore how different religions are represented in LLMs. We find that: Major religions in the US and European countries are represented with more nuance, displaying a more shaded model of their beliefs. Eastern religions like Hinduism and Buddhism are strongly stereotyped. Judaism and Islam are stigmatized -- the models' refusal skyrocket. We ascribe these to cultural bias in LLMs and the scarcity of NLP literature on religion. In the rare instances where religion is discussed, it is often in the context of toxic language, perpetuating the perception of these religions as inherently toxic. This finding underscores the urgent need to address and rectify these biases. Our research underscores the crucial role emotions play in our lives and how our values influence them.
- Abstract(参考訳): 感情は私たちの生活において重要な認識論的および認知的役割を担い、私たちの価値観を明らかにし、行動の指針となる。
これまでの研究では、LLMは性線に沿って感情の帰属に偏っていることが示されている。
しかしながら、我々の価値観についてほとんど言及しないジェンダーとは異なり、宗教は社会文化的体系として、その信奉者に一連の信念と価値観を規定している。
したがって宗教は特定の感情を育む。
さらに、これらの規則は明確に規定され、宗教指導者によって解釈される。
感情属性を用いて、異なる宗教がLLMでどのように表現されるかを探る。
米国やヨーロッパ諸国の主要な宗教は、よりニュアンスで表現され、彼らの信念のより暗いモデルが示されています。
ヒンドゥー教や仏教のような東方宗教は強くステレオタイプ化されている。
ユダヤ教とイスラム教は厳格化している。
LLMにおける文化的偏見と、宗教におけるNLP文学の欠如について説明する。
宗教が議論されるまれな例では、しばしば有毒な言語の文脈で、これらの宗教の知覚を本質的に有毒であると見なす。
この発見は、これらのバイアスに対処し、修正する緊急の必要性を浮き彫りにする。
私たちの研究は、感情が私たちの生活で果たす重要な役割と、私たちの価値観がそれらにどのように影響するかを強調します。
関連論文リスト
- An Empirical Study of Gendered Stereotypes in Emotional Attributes for Bangla in Multilingual Large Language Models [2.98683507969764]
女性は共感、恐怖、罪悪感といった感情に結びついており、男性は怒り、ブラボード、権威に結びついている。
バングラにおける感情の文脈における性バイアスの存在を分析的手法を用いて示す。
コードやデータを含むすべてのリソースは、Bangla NLPに関する将来の研究をサポートするために公開されています。
論文 参考訳(メタデータ) (2024-07-08T22:22:15Z) - Multilingual Trolley Problems for Language Models [138.0995992619116]
この研究は、「道徳機械実験」という人間の道徳的嗜好に関する大規模横断的な研究から着想を得たものである。
大規模な言語モデル(LLM)は、英語、韓国語、ハンガリー語、中国語などの言語では人間の好みと一致しているが、ヒンディー語やソマリ語(アフリカ)のような言語では一致していないことを示す。
また, LLMが道徳的選択に与える説明を特徴付けるとともに, GPT-3によるGPT-4の決定と実用主義の裏側において, 公平性が最も有力であることを示す。
論文 参考訳(メタデータ) (2024-07-02T14:02:53Z) - CULTURE-GEN: Revealing Global Cultural Perception in Language Models through Natural Language Prompting [68.37589899302161]
110か国・地域での3つのSOTAモデルの文化認識を,文化条件付き世代を通して8つの文化関連トピックについて明らかにした。
文化条件付き世代は、デフォルトの文化と区別される余分な文化を区別する言語的な「マーカー」から成り立っていることが判明した。
論文 参考訳(メタデータ) (2024-04-16T00:50:43Z) - Angry Men, Sad Women: Large Language Models Reflect Gendered Stereotypes in Emotion Attribution [20.21748776472278]
本研究は,感情がジェンダー化されているか,社会的ステレオタイプに基づくのかを考察する。
すべてのモデルは、ジェンダーステレオタイプの影響を受けながら、一貫して性的な感情を示す。
私たちの研究は、言語、性別、感情の間の複雑な社会的相互作用に光を当てています。
論文 参考訳(メタデータ) (2024-03-05T17:04:05Z) - Large Language Models are Geographically Biased [51.37609528538606]
我々は、地理のレンズを通して、我々の住む世界について、Large Language Models (LLM)が何を知っているかを研究する。
我々は,地理空間予測において,システム的誤りと定義する,様々な問題的地理的バイアスを示す。
論文 参考訳(メタデータ) (2024-02-05T02:32:09Z) - Western, Religious or Spiritual: An Evaluation of Moral Justification in
Large Language Models [5.257719744958368]
本稿では,道徳的正当化の過程で,Large Language Models (LLM) にどの値や原則が組み込まれているかを明らかにすることを目的とする。
西洋の伝統観(WT)、アブラハムの伝統観(AT)、スピリチュアリスト/神秘観(SMT)の3つの異なる道徳観念カテゴリを考案した。
論文 参考訳(メタデータ) (2023-11-13T23:01:19Z) - Multilingual Language Models are not Multicultural: A Case Study in
Emotion [8.73324795579955]
2023年の多言語LMは、文化や言語間の感情表現の相違を反映しているかどうかを考察する。
LMから得られる埋め込みはアングロ中心であり、生成的LMは他言語のプロンプトに応答しても西洋のノルムを反映している。
論文 参考訳(メタデータ) (2023-07-03T21:54:28Z) - Religion and Spirituality on Social Media in the Aftermath of the Global
Pandemic [59.930429668324294]
私たちは、突然の宗教活動の変化を2つに分析します。
重要な点として,2020年7月から9月にかけての3ヶ月の期間を分析して,この過程の時間的変動を分析した。
論文 参考訳(メタデータ) (2022-12-11T18:41:02Z) - A Moral- and Event- Centric Inspection of Gender Bias in Fairy Tales at
A Large Scale [50.92540580640479]
7つの文化から得られた624個の妖精物語を含む妖精物語データセットにおいて,ジェンダーバイアスを計算的に解析した。
その結果,男性キャラクターの数は女性キャラクターの2倍であり,男女表現が不均等であることが判明した。
女性キャラクターは、注意、忠誠、尊厳に関する道徳的な言葉とより関連しているのに対し、男性キャラクターは、公正、権威に関する道徳的な単語とより関連している。
論文 参考訳(メタデータ) (2022-11-25T19:38:09Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Persistent Anti-Muslim Bias in Large Language Models [13.984800635696566]
最新の文脈言語モデルであるGPT-3は、永続的なムスリム-暴力バイアスを捕捉する。
我々は, GPT-3 を様々な方法で探索し, 即時完了, 類似推論, 物語生成を行う。
例えば、"イスラム教徒"はテストケースの23%で"テロリスト"に、"ユダヤ人"はテストケースの5%で"お金"にマッピングされます。
論文 参考訳(メタデータ) (2021-01-14T18:41:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。