論文の概要: Reinforcing Stereotypes of Anger: Emotion AI on African American Vernacular English
- arxiv url: http://arxiv.org/abs/2511.10846v1
- Date: Thu, 13 Nov 2025 23:13:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.358613
- Title: Reinforcing Stereotypes of Anger: Emotion AI on African American Vernacular English
- Title(参考訳): アンガーのステレオタイプ強化:アフリカ系アメリカ人の英語における感情AI
- Authors: Rebecca Dorn, Christina Chance, Casandra Rusti, Charles Bickham, Kai-Wei Chang, Fred Morstatter, Kristina Lerman,
- Abstract要約: 本研究は、一般アメリカ英語(GAE)と比較して、アフリカ系アメリカ人言語英語(AAVE)における感情認識モデルの性能について検討する。
ロサンゼルスでは270万のツイートがジオタグ付けされている。
アフリカ系アメリカ人の住民の割合が高い地区は怒りの予測が大きくなることが観察された。
- 参考スコア(独自算出の注目度): 46.47177439553625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated emotion detection is widely used in applications ranging from well-being monitoring to high-stakes domains like mental health and hiring. However, models often rely on annotations that reflect dominant cultural norms, limiting model ability to recognize emotional expression in dialects often excluded from training data distributions, such as African American Vernacular English (AAVE). This study examines emotion recognition model performance on AAVE compared to General American English (GAE). We analyze 2.7 million tweets geo-tagged within Los Angeles. Texts are scored for strength of AAVE using computational approximations of dialect features. Annotations of emotion presence and intensity are collected on a dataset of 875 tweets with both high and low AAVE densities. To assess model accuracy on a task as subjective as emotion perception, we calculate community-informed "silver" labels where AAVE-dense tweets are labeled by African American, AAVE-fluent (ingroup) annotators. On our labeled sample, GPT and BERT-based models exhibit false positive prediction rates of anger on AAVE more than double than on GAE. SpanEmo, a popular text-based emotion model, increases false positive rates of anger from 25 percent on GAE to 60 percent on AAVE. Additionally, a series of linear regressions reveals that models and non-ingroup annotations are significantly more correlated with profanity-based AAVE features than ingroup annotations. Linking Census tract demographics, we observe that neighborhoods with higher proportions of African American residents are associated with higher predictions of anger (Pearson's correlation r = 0.27) and lower joy (r = -0.10). These results find an emergent safety issue of emotion AI reinforcing racial stereotypes through biased emotion classification. We emphasize the need for culturally and dialect-informed affective computing systems.
- Abstract(参考訳): 感情の自動検出は、幸福なモニタリングからメンタルヘルスや雇用といった高度な領域まで、アプリケーションで広く利用されている。
しかしながら、モデルは、しばしば支配的な文化規範を反映したアノテーションに依存し、アフリカ系アメリカ人の言語英語(AAVE)のような訓練データ配布から除外される方言における感情表現を認識するモデル能力を制限する。
本研究では、一般アメリカ英語(GAE)と比較して、AAVEにおける感情認識モデルの性能について検討する。
ロサンゼルスでは270万のツイートがジオタグ付けされている。
テキストは、方言の特徴の計算近似を用いて、AAVEの強さを測る。
感情の存在と強さのアノテーションは、高いAAVE密度と低いAAVE密度の875ツイートのデータセットで収集される。
感情知覚として主観的なタスクにおけるモデル精度を評価するために,AAVE-dense のツイートをアフリカ系アメリカ人,AAVE-fluent (ingroup) アノテーションでラベル付けしたコミュニティインフォームドの "銀" ラベルを計算した。
ラベル付きサンプルでは,GAEの2倍以上のAAVEに対して,GPTとBERTをベースとしたモデルが偽陽性の怒りの予測率を示した。
人気のテキストベースの感情モデルであるSpanEmoは、怒りの偽陽性率をGAEの25%からAAVEの60%に引き上げている。
さらに、一連の線形回帰は、モデルと非イングループアノテーションが、イングループアノテーションよりも格言に基づくAAVE特徴と著しく相関していることを明らかにする。
Census tract populations をリンクすると、アフリカ系アメリカ人の住民の割合が高い地区は怒りの予測(ピアソンの相関r = 0.27)と低い喜び(r = -0.10)に結びついていることが分かる。
これらの結果は、偏りのある感情分類を通じて人種的ステレオタイプを強化する感情AIの突発的な安全性の問題を見出した。
我々は、文化的・弁証的インフォームド型感情コンピューティングシステムの必要性を強調した。
関連論文リスト
- A Study of Nationality Bias in Names and Perplexity using Off-the-Shelf Affect-related Tweet Classifiers [0.0]
バイアス検出のためにテンプレートや特定のデータセットに頼るのではなく、ターゲットドメインデータに小さな摂動を持つ対実例を作成します。
感情,感情,ヘイトスピーチなどの主観的分析に広く用いられている分類器について,本研究の結果は,ある国で話されている言語に関する肯定的なバイアスを示す。
論文 参考訳(メタデータ) (2024-07-01T22:17:17Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - A Comprehensive View of the Biases of Toxicity and Sentiment Analysis
Methods Towards Utterances with African American English Expressions [5.472714002128254]
ウェブベース(YouTubeとTwitter)の2つのデータセットと英語の2つのデータセットのバイアスについて検討した。
我々は,言語問合せおよびワードカウントソフトウェアから言語制御機能を介してAE表現の使用が与える影響を分離する。
また, AAE 表現の多用により, 話者の毒性が著しく向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-23T12:41:03Z) - Bias Runs Deep: Implicit Reasoning Biases in Persona-Assigned LLMs [67.51906565969227]
LLMの基本的な推論タスクの実行能力に対するペルソナ代入の意図しない副作用について検討する。
本研究は,5つの社会デコグラフィーグループにまたがる24の推論データセット,4つのLDM,19の多様な個人(アジア人など)について検討した。
論文 参考訳(メタデータ) (2023-11-08T18:52:17Z) - Regional Negative Bias in Word Embeddings Predicts Racial Animus--but
only via Name Frequency [2.247786323899963]
地理的にタグ付けされたソーシャルメディアデータからの反黒人WEAT推定は、人種的アニマスのいくつかの指標と強く相関していることを示す。
また,これらの相関関係は,ブラックネームとホワイトネームの相関関係において,ブラックネームの頻度によって説明されることを示した。
論文 参考訳(メタデータ) (2022-01-20T20:52:12Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Investigating African-American Vernacular English in Transformer-Based
Text Generation [55.53547556060537]
ソーシャルメディアはアフリカ系アメリカ人英語(AAVE)の使用を奨励している
AAVEテキスト上でのGPT-2の性能は、意図等価な並列AAVE/SAEツイートペアのデータセットを作成することによって検証する。
AAVEテキストはSAEよりもネガティブな感情の分類が多かったが、GPT-2の使用は概して肯定的な感情の発生を増加させている。
論文 参考訳(メタデータ) (2020-10-06T06:27:02Z) - Intersectional Bias in Hate Speech and Abusive Language Datasets [0.3149883354098941]
アフリカ系アメリカ人のツイートの3.7倍は虐待的だと評価される傾向があった。
アフリカ系アメリカ人の男性ツイートは、ヘイトフルと評価される確率が最大で77%だった。
本研究はヘイトスピーチと虐待言語のデータセットにおける交差バイアスに関する最初の体系的な証拠を提供する。
論文 参考訳(メタデータ) (2020-05-12T16:58:48Z) - It's Morphin' Time! Combating Linguistic Discrimination with
Inflectional Perturbations [68.16751625956243]
完全な標準英語コーパスのみが、非標準言語的背景から少数民族を区別するためにニューラルネットワークを前提としている。
我々は、単語の屈折形態を乱して、可塑性で意味論的に類似した逆の例を作る。
論文 参考訳(メタデータ) (2020-05-09T04:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。