論文の概要: Intersectional Bias in Hate Speech and Abusive Language Datasets
- arxiv url: http://arxiv.org/abs/2005.05921v3
- Date: Thu, 28 May 2020 05:49:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:25:40.525760
- Title: Intersectional Bias in Hate Speech and Abusive Language Datasets
- Title(参考訳): ヘイトスピーチと虐待的言語データセットにおける交叉バイアス
- Authors: Jae Yeon Kim, Carlos Ortiz, Sarah Nam, Sarah Santiago, Vivek Datta
- Abstract要約: アフリカ系アメリカ人のツイートの3.7倍は虐待的だと評価される傾向があった。
アフリカ系アメリカ人の男性ツイートは、ヘイトフルと評価される確率が最大で77%だった。
本研究はヘイトスピーチと虐待言語のデータセットにおける交差バイアスに関する最初の体系的な証拠を提供する。
- 参考スコア(独自算出の注目度): 0.3149883354098941
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Algorithms are widely applied to detect hate speech and abusive language in
social media. We investigated whether the human-annotated data used to train
these algorithms are biased. We utilized a publicly available annotated Twitter
dataset (Founta et al. 2018) and classified the racial, gender, and party
identification dimensions of 99,996 tweets. The results showed that African
American tweets were up to 3.7 times more likely to be labeled as abusive, and
African American male tweets were up to 77% more likely to be labeled as
hateful compared to the others. These patterns were statistically significant
and robust even when party identification was added as a control variable. This
study provides the first systematic evidence on intersectional bias in datasets
of hate speech and abusive language.
- Abstract(参考訳): アルゴリズムはソーシャルメディアでヘイトスピーチや虐待言語を検出するために広く利用されている。
これらのアルゴリズムの学習に使用される人間の注釈データにバイアスがあるか検討した。
公開アノテートされたtwitterデータセット(founta et al. 2018)を利用して、99,996ツイートの人種、性別、政党の識別範囲を分類した。
その結果、アフリカ系アメリカ人のツイートの3.7倍は虐待的であり、アフリカ系アメリカ人のツイートの77%は、他のツイートに比べて憎悪的と分類される可能性が高かった。
これらのパターンは,パーティ識別を制御変数として追加しても統計的に有意かつ堅牢であった。
本研究はヘイトスピーチと虐待言語のデータセットにおける交差バイアスに関する最初の体系的な証拠を提供する。
関連論文リスト
- Analysis and Detection of Multilingual Hate Speech Using Transformer
Based Deep Learning [7.332311991395427]
ヘイトスピーチの普及に伴い,NLPタスクとしての自動検出の需要が高まっている。
本研究では、Twitter、Facebook、WhatsApp、Instagramなどのソーシャルメディアにおけるヘイトスピーチを検出するために、トランスフォーマーベースのモデルを提案する。
金の標準データセットは、著名な研究者Zeerak Talat、Sara Tonelli、Melanie Siegel、Rezaul Karimから収集された。
ヘイトスピーチ検出のための提案されたモデルの成功率は、ベンガルデータセットの精度の高い既存のベースラインや最先端モデルよりも高く、英語では89%、ドイツ語では91%である。
論文 参考訳(メタデータ) (2024-01-19T20:40:23Z) - Overview of Abusive and Threatening Language Detection in Urdu at FIRE
2021 [50.591267188664666]
我々は、ウルドゥー語に対する虐待と脅しの2つの共通タスクを提示する。
本研究では, (i) 乱用と非乱用というラベル付きツイートを含む手動注釈付きデータセットと, (ii) 脅威と非脅威の2つを提示する。
両方のサブタスクに対して、m-Bertベースのトランスモデルは最高の性能を示した。
論文 参考訳(メタデータ) (2022-07-14T07:38:13Z) - Analyzing Hate Speech Data along Racial, Gender and Intersectional Axes [1.5039745292757671]
我々は、人種、性別、交叉軸に沿ったヘイトスピーチデータセットのバイアスを調査する。
アフリカ・アメリカン・イングリッシュ(AAE)、男性的ツイート、AAE+男性的ツイートに対する強い偏見を識別する。
論文 参考訳(メタデータ) (2022-05-13T13:13:46Z) - Manipulating Twitter Through Deletions [64.33261764633504]
Twitter上でのインフルエンスキャンペーンの研究は、公開APIを通じて得られたツイートから悪意のあるアクティビティを識別することに大きく依存している。
ここでは,1100万以上のアカウントによる10億以上の削除を含む,異常な削除パターンを網羅的かつ大規模に分析する。
少数のアカウントが毎日大量のツイートを削除していることがわかった。
まず、ツイートのボリューム制限が回避され、特定のアカウントが毎日2600万以上のツイートをネットワークに流すことができる。
第二に、調整されたアカウントのネットワークは、繰り返しのいいね!や、最終的に削除されるコンテンツとは違って、ランキングアルゴリズムを操作できる。
論文 参考訳(メタデータ) (2022-03-25T20:07:08Z) - Emojis as Anchors to Detect Arabic Offensive Language and Hate Speech [6.1875341699258595]
攻撃的・憎悪的なツイートを大量に収集する汎用的な言語に依存しない手法を提案する。
絵文字に埋め込まれた言語外情報を利用して、多くの攻撃的なツイートを収集します。
論文 参考訳(メタデータ) (2022-01-18T03:56:57Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Probabilistic Impact Score Generation using Ktrain-BERT to Identify Hate
Words from Twitter Discussions [0.5735035463793008]
本稿では,Kerasをラップした軽量BERTモデルによるヘイトスピーチの同定実験を行った。
このタスクで使用されるデータセットは、英語のFIRE 2021からのHate Speech and Offensive Content Detection (HASOC 2021)データである。
検証精度は82.60%,F1スコアは82.68%であった。
論文 参考訳(メタデータ) (2021-11-25T06:35:49Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Detecting White Supremacist Hate Speech using Domain Specific Word
Embedding with Deep Learning and BERT [0.0]
白人至上主義のヘイトスピーチは、ソーシャルメディア上で最も最近観察された有害なコンテンツの一つである。
本研究では,ディープラーニングと自然言語処理技術を用いて,Twitter上での白人至上主義者のヘイトスピーチを自動的に検出する可能性について検討した。
論文 参考訳(メタデータ) (2020-10-01T12:44:24Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。