論文の概要: Angry Men, Sad Women: Large Language Models Reflect Gendered Stereotypes
in Emotion Attribution
- arxiv url: http://arxiv.org/abs/2403.03121v1
- Date: Tue, 5 Mar 2024 17:04:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 13:58:03.630429
- Title: Angry Men, Sad Women: Large Language Models Reflect Gendered Stereotypes
in Emotion Attribution
- Title(参考訳): 悲しい男性、悲しい女性:大きな言語モデル:感情属性における性的なステレオタイプを反映する
- Authors: Flor Miriam Plaza-del-Arco, Amanda Cercas Curry, Alba Curry, Gavin
Abercrombie, Dirk Hovy
- Abstract要約: 本研究は,感情がジェンダー化されているか,社会的ステレオタイプに基づくのかを考察する。
すべてのモデルは、ジェンダーステレオタイプの影響を受けながら、一貫して性的な感情を示す。
私たちの研究は、言語、性別、感情の間の複雑な社会的相互作用に光を当てています。
- 参考スコア(独自算出の注目度): 21.42276990284762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) reflect societal norms and biases, especially
about gender. While societal biases and stereotypes have been extensively
researched in various NLP applications, there is a surprising gap for emotion
analysis. However, emotion and gender are closely linked in societal discourse.
E.g., women are often thought of as more empathetic, while men's anger is more
socially accepted. To fill this gap, we present the first comprehensive study
of gendered emotion attribution in five state-of-the-art LLMs (open- and
closed-source). We investigate whether emotions are gendered, and whether these
variations are based on societal stereotypes. We prompt the models to adopt a
gendered persona and attribute emotions to an event like 'When I had a serious
argument with a dear person'. We then analyze the emotions generated by the
models in relation to the gender-event pairs. We find that all models
consistently exhibit gendered emotions, influenced by gender stereotypes. These
findings are in line with established research in psychology and gender
studies. Our study sheds light on the complex societal interplay between
language, gender, and emotion. The reproduction of emotion stereotypes in LLMs
allows us to use those models to study the topic in detail, but raises
questions about the predictive use of those same LLMs for emotion applications.
- Abstract(参考訳): 大規模言語モデル(llm)は社会規範とバイアス、特に性別を反映している。
社会的バイアスやステレオタイプは様々なNLPアプリケーションで広く研究されているが、感情分析には驚くべきギャップがある。
しかし、感情と性は社会的言説と密接に関連している。
例えば、女性はより共感的であると考えられ、男性の怒りはより社会的に受け入れられる。
このギャップを埋めるため,我々は5つの最先端llm(open- and closed-source)におけるジェンダー感情帰属に関する最初の包括的な研究を行う。
感情がジェンダー化されているか,社会的ステレオタイプに基づくのかを検討する。
我々はモデルに「大切な人と真面目な議論をした時」のようなイベントに性的なペルソナを採用し、感情を属性付けるよう促す。
次に, モデルが生成した感情を, 性別対の関係で分析する。
すべてのモデルは、ジェンダーステレオタイプの影響を受けて、一貫して性的な感情を示す。
これらの知見は、心理学やジェンダー研究の確立した研究と一致している。
私たちの研究は、言語、性別、感情の間の複雑な社会的相互作用に光を当てています。
LLMの感情ステレオタイプを再現することで、これらのモデルを用いてそのトピックを詳細に研究することができるが、同じLLMの感情応用における予測的利用に関する疑問が提起される。
関連論文リスト
- Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts [15.676219253088211]
大規模言語モデル(LLM)におけるジェンダーエクイティを意思決定レンズを用いて検討する。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
論文 参考訳(メタデータ) (2024-10-14T20:50:11Z) - An Empirical Study of Gendered Stereotypes in Emotional Attributes for Bangla in Multilingual Large Language Models [2.98683507969764]
女性は共感、恐怖、罪悪感といった感情に結びついており、男性は怒り、ブラボード、権威に結びついている。
バングラにおける感情の文脈における性バイアスの存在を分析的手法を用いて示す。
コードやデータを含むすべてのリソースは、Bangla NLPに関する将来の研究をサポートするために公開されています。
論文 参考訳(メタデータ) (2024-07-08T22:22:15Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Socratis: Are large multimodal models emotionally aware? [63.912414283486555]
既存の感情予測ベンチマークでは、様々な理由で画像やテキストが人間にもたらす感情の多様性を考慮していない。
社会反応ベンチマークであるソクラティス (Socratis) を提案し, それぞれのイメージ・キャプション(IC) ペアに複数の感情とそれらを感じる理由をアノテートする。
我々は、ICペアが与えられた感情を感じる理由を生成するために、最先端のマルチモーダルな大規模言語モデルの能力をベンチマークする。
論文 参考訳(メタデータ) (2023-08-31T13:59:35Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Identifying gender bias in blockbuster movies through the lens of
machine learning [0.5023676240063351]
我々は、自然言語処理技術を用いて、異なるジャンルの映画と、派生した感情と感情のスクリプトを収集した。
映画では, 男女の性格的特徴が, 社会的ステレオタイプと一致していることが明らかとなった。
数学と機械学習のテクニックを使って、男性が女性よりも支配的かつ熱心であることが示されるバイアスを見つけました。
論文 参考訳(メタデータ) (2022-11-21T09:41:53Z) - Gendered Mental Health Stigma in Masked Language Models [38.766854150355634]
マスキング言語モデルにおける性的なメンタルヘルスのスティグマについて検討した。
モデルでは、精神的な健康状態に関する文章の中で、男性よりも女性の被験者を予測する傾向が常に高いことが判明した。
論文 参考訳(メタデータ) (2022-10-27T03:09:46Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - MIME: MIMicking Emotions for Empathetic Response Generation [82.57304533143756]
共感応答生成への現在のアプローチは、入力テキストで表現された感情の集合を平らな構造として見る。
共感反応は, 肯定的, 否定的, 内容に応じて, ユーザの感情を様々な程度に模倣することが多い。
論文 参考訳(メタデータ) (2020-10-04T00:35:47Z) - Language, communication and society: a gender based linguistics analysis [0.0]
本研究の目的は,言語が私たちの思考のミラーであるという仮説を支持する証拠を見つけることである。
回答は、心理的特徴や行動特性の帰属など、性別のステレオタイプが存在するかどうかを調べるために分析されてきた。
論文 参考訳(メタデータ) (2020-07-14T08:38:37Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。