論文の概要: Divine LLaMAs: Bias, Stereotypes, Stigmatization, and Emotion Representation of Religion in Large Language Models
- arxiv url: http://arxiv.org/abs/2407.06908v1
- Date: Tue, 9 Jul 2024 14:45:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 17:47:35.249606
- Title: Divine LLaMAs: Bias, Stereotypes, Stigmatization, and Emotion Representation of Religion in Large Language Models
- Title(参考訳): 多様なLLaMA: バイアス、ステレオタイプ、スティグマタイズ、および大規模言語モデルにおける宗教の感情表現
- Authors: Flor Miriam Plaza-del-Arco, Amanda Cercas Curry, Susanna Paoli, Alba Curry, Dirk Hovy,
- Abstract要約: 社会文化的体系としての宗教は、その信者に対する信念と価値観の集合を規定している。
私たちの価値観についてほとんど言及していないジェンダーとは違い、宗教はその信条と信条のセットを定めている。
アメリカやヨーロッパ諸国の主要な宗教は、よりニュアンスで表現されている。
ヒンドゥー教や仏教のような東方宗教は強くステレオタイプ化されている。
- 参考スコア(独自算出の注目度): 19.54202714712677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotions play important epistemological and cognitive roles in our lives, revealing our values and guiding our actions. Previous work has shown that LLMs display biases in emotion attribution along gender lines. However, unlike gender, which says little about our values, religion, as a socio-cultural system, prescribes a set of beliefs and values for its followers. Religions, therefore, cultivate certain emotions. Moreover, these rules are explicitly laid out and interpreted by religious leaders. Using emotion attribution, we explore how different religions are represented in LLMs. We find that: Major religions in the US and European countries are represented with more nuance, displaying a more shaded model of their beliefs. Eastern religions like Hinduism and Buddhism are strongly stereotyped. Judaism and Islam are stigmatized -- the models' refusal skyrocket. We ascribe these to cultural bias in LLMs and the scarcity of NLP literature on religion. In the rare instances where religion is discussed, it is often in the context of toxic language, perpetuating the perception of these religions as inherently toxic. This finding underscores the urgent need to address and rectify these biases. Our research underscores the crucial role emotions play in our lives and how our values influence them.
- Abstract(参考訳): 感情は私たちの生活において重要な認識論的および認知的役割を担い、私たちの価値観を明らかにし、行動の指針となる。
これまでの研究では、LLMは性線に沿って感情の帰属に偏っていることが示されている。
しかしながら、我々の価値観についてほとんど言及しないジェンダーとは異なり、宗教は社会文化的体系として、その信奉者に一連の信念と価値観を規定している。
したがって宗教は特定の感情を育む。
さらに、これらの規則は明確に規定され、宗教指導者によって解釈される。
感情属性を用いて、異なる宗教がLLMでどのように表現されるかを探る。
米国やヨーロッパ諸国の主要な宗教は、よりニュアンスで表現され、彼らの信念のより暗いモデルが示されています。
ヒンドゥー教や仏教のような東方宗教は強くステレオタイプ化されている。
ユダヤ教とイスラム教は厳格化している。
LLMにおける文化的偏見と、宗教におけるNLP文学の欠如について説明する。
宗教が議論されるまれな例では、しばしば有毒な言語の文脈で、これらの宗教の知覚を本質的に有毒であると見なす。
この発見は、これらのバイアスに対処し、修正する緊急の必要性を浮き彫りにする。
私たちの研究は、感情が私たちの生活で果たす重要な役割と、私たちの価値観がそれらにどのように影響するかを強調します。
関連論文リスト
- Large Language Models Reflect the Ideology of their Creators [73.25935570218375]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
異なるLLMや言語にまたがるイデオロギー的姿勢の顕著な多様性を明らかにする。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Measuring Spiritual Values and Bias of Large Language Models [28.892254056685008]
大規模言語モデル(LLM)は、様々なバックグラウンドを持つユーザにとって不可欠なツールとなっている。
これらのモデルは、事前学習データに埋め込まれた言語的・文化的ニュアンスを反映している。
このデータに固有の値と視点は、LCMの挙動に影響を与え、潜在的なバイアスをもたらす。
論文 参考訳(メタデータ) (2024-10-15T14:33:23Z) - Exploring Bengali Religious Dialect Biases in Large Language Models with Evaluation Perspectives [5.648318448953635]
大規模言語モデル(LLM)はステレオタイプとバイアスを含む出力を生成することができる。
我々はベンガル語における宗教的な視点から偏見を探求し、特にヒンドゥー語とムスリム・マジョリティの2つの主要な宗教方言に焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T20:19:29Z) - An Empirical Study of Gendered Stereotypes in Emotional Attributes for Bangla in Multilingual Large Language Models [2.98683507969764]
女性は共感、恐怖、罪悪感といった感情に結びついており、男性は怒り、ブラボード、権威に結びついている。
バングラにおける感情の文脈における性バイアスの存在を分析的手法を用いて示す。
コードやデータを含むすべてのリソースは、Bangla NLPに関する将来の研究をサポートするために公開されています。
論文 参考訳(メタデータ) (2024-07-08T22:22:15Z) - CULTURE-GEN: Revealing Global Cultural Perception in Language Models through Natural Language Prompting [73.94059188347582]
110か国・地域での3つのSOTAモデルの文化認識を,文化条件付き世代を通して8つの文化関連トピックについて明らかにした。
文化条件付き世代は、デフォルトの文化と区別される余分な文化を区別する言語的な「マーカー」から成り立っていることが判明した。
論文 参考訳(メタデータ) (2024-04-16T00:50:43Z) - Western, Religious or Spiritual: An Evaluation of Moral Justification in
Large Language Models [5.257719744958368]
本稿では,道徳的正当化の過程で,Large Language Models (LLM) にどの値や原則が組み込まれているかを明らかにすることを目的とする。
西洋の伝統観(WT)、アブラハムの伝統観(AT)、スピリチュアリスト/神秘観(SMT)の3つの異なる道徳観念カテゴリを考案した。
論文 参考訳(メタデータ) (2023-11-13T23:01:19Z) - Multilingual Language Models are not Multicultural: A Case Study in
Emotion [8.73324795579955]
2023年の多言語LMは、文化や言語間の感情表現の相違を反映しているかどうかを考察する。
LMから得られる埋め込みはアングロ中心であり、生成的LMは他言語のプロンプトに応答しても西洋のノルムを反映している。
論文 参考訳(メタデータ) (2023-07-03T21:54:28Z) - The Face of Populism: Examining Differences in Facial Emotional Expressions of Political Leaders Using Machine Learning [50.24983453990065]
私たちは15カ国の政治指導者の220本のYouTubeビデオのサンプルをディープラーニングで処理しています。
ポピュリスト・レトリックの度合いが異なるリーダー群間での負の感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - Religion and Spirituality on Social Media in the Aftermath of the Global
Pandemic [59.930429668324294]
私たちは、突然の宗教活動の変化を2つに分析します。
重要な点として,2020年7月から9月にかけての3ヶ月の期間を分析して,この過程の時間的変動を分析した。
論文 参考訳(メタデータ) (2022-12-11T18:41:02Z) - A Moral- and Event- Centric Inspection of Gender Bias in Fairy Tales at
A Large Scale [50.92540580640479]
7つの文化から得られた624個の妖精物語を含む妖精物語データセットにおいて,ジェンダーバイアスを計算的に解析した。
その結果,男性キャラクターの数は女性キャラクターの2倍であり,男女表現が不均等であることが判明した。
女性キャラクターは、注意、忠誠、尊厳に関する道徳的な言葉とより関連しているのに対し、男性キャラクターは、公正、権威に関する道徳的な単語とより関連している。
論文 参考訳(メタデータ) (2022-11-25T19:38:09Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。