論文の概要: How Hate Speech Varies by Target Identity: A Computational Analysis
- arxiv url: http://arxiv.org/abs/2210.10839v1
- Date: Wed, 19 Oct 2022 19:06:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 14:23:27.793597
- Title: How Hate Speech Varies by Target Identity: A Computational Analysis
- Title(参考訳): ターゲットアイデンティティによるヘイトスピーチの表現方法:計算分析
- Authors: Michael Miller Yoder, Lynnette Hui Xian Ng, David West Brown, Kathleen
M. Carley
- Abstract要約: ヘイトスピーチが対象とするアイデンティティに応じて体系的にどう変化するかを検討する。
対象のカテゴリーは、対象のアイデンティティグループの相対的な社会的力よりも、ヘイトスピーチの言語に強い影響を及ぼすと考えられる。
- 参考スコア(独自算出の注目度): 5.746505534720595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates how hate speech varies in systematic ways according
to the identities it targets. Across multiple hate speech datasets annotated
for targeted identities, we find that classifiers trained on hate speech
targeting specific identity groups struggle to generalize to other targeted
identities. This provides empirical evidence for differences in hate speech by
target identity; we then investigate which patterns structure this variation.
We find that the targeted demographic category (e.g. gender/sexuality or
race/ethnicity) appears to have a greater effect on the language of hate speech
than does the relative social power of the targeted identity group. We also
find that words associated with hate speech targeting specific identities often
relate to stereotypes, histories of oppression, current social movements, and
other social contexts specific to identities. These experiments suggest the
importance of considering targeted identity, as well as the social contexts
associated with these identities, in automated hate speech classification.
- Abstract(参考訳): 本稿では,ヘイトスピーチが対象とするアイデンティティに応じて,体系的にどう変化するかを検討する。
複数のヘイトスピーチデータセットに、特定のアイデンティティグループを対象としたヘイトスピーチを訓練した分類器が、他のターゲットidへの一般化に苦戦していることがわかりました。
これによって、ターゲットのアイデンティティによるヘイトスピーチの違いに対する実証的な証拠が得られる。
対象のカテゴリー(性別・性・人種・民族など)は、対象とするアイデンティティグループの相対的社会的パワーよりも、ヘイトスピーチの言語により大きな影響を与えていると考えられる。
また,特定のアイデンティティをターゲットとしたヘイトスピーチに関連する単語は,ステレオタイプ,抑圧の履歴,現在の社会運動,その他のアイデンティティ特有の社会的文脈にしばしば関連していることがわかった。
これらの実験は、自動ヘイトスピーチ分類において、ターゲットのアイデンティティや、これらのアイデンティティに関連する社会的文脈を考慮することの重要性を示唆している。
関連論文リスト
- Identity Construction in a Misogynist Incels Forum [5.260305201345233]
Incels-dot-is, 最大のブラックパイルインセルフォーラムにおいて, アイデンティティグループがどのように議論されるかを検討する。
このコミュニティは、幅広い新しいアイデンティティ用語を生み出しており、女性の用語が最も一般的である一方で、他のマイノリティ化されたアイデンティティの言及が増えている。
アイデンティティグループと結びついた関連性の分析は、身体的な外見と性別、人種的階層が人間の価値を決定する本質的なイデオロギーを示唆している。
論文 参考訳(メタデータ) (2023-06-27T18:56:28Z) - When the Majority is Wrong: Modeling Annotator Disagreement for
Subjective Tasks [50.74030912441755]
ヘイトスピーチの検出における重要な問題は、ある声明が人口集団に対して攻撃的であるかどうかを決定することである。
我々は、潜在的に攻撃的なテキストに基づいて、個々のアノテータ評価を予測するモデルを構築した。
その結果、アノテータの評価は、その人口統計情報とオンラインコンテンツに関する意見を用いて予測できることがわかった。
論文 参考訳(メタデータ) (2023-05-11T07:55:20Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Hate Speech Classifiers Learn Human-Like Social Stereotypes [4.132204773132937]
社会的ステレオタイプは、異なるグループについての個人の判断に悪影響を及ぼす。
社会的ステレオタイプは、人々が少数民族社会グループに向けられた言語をどのように理解するかにおいて重要な役割を担っている。
論文 参考訳(メタデータ) (2021-10-28T01:35:41Z) - Latent Hatred: A Benchmark for Understanding Implicit Hate Speech [22.420275418616242]
この研究は、暗黙のヘイトスピーチの理論的に正当化された分類法と、各メッセージにきめ細かいラベルを付けたベンチマークコーパスを導入している。
本稿では、同時代のベースラインを用いて、暗黙のヘイトスピーチを検出し、説明するためにデータセットを体系的に分析する。
論文 参考訳(メタデータ) (2021-09-11T16:52:56Z) - Unsupervised Domain Adaptation for Hate Speech Detection Using a Data
Augmentation Approach [6.497816402045099]
ヘイトスピーチ検出のためのラベル付きデータを拡張するための教師なし領域適応手法を提案する。
精度/リコール曲線の領域を最大42%改善し,278%改善した。
論文 参考訳(メタデータ) (2021-07-27T15:01:22Z) - Protecting gender and identity with disentangled speech representations [49.00162808063399]
音声における性情報保護は,話者識別情報のモデル化よりも効果的であることを示す。
性別情報をエンコードし、2つの敏感な生体識別子を解読する新しい方法を提示する。
論文 参考訳(メタデータ) (2021-04-22T13:31:41Z) - Investigating Deep Learning Approaches for Hate Speech Detection in
Social Media [20.974715256618754]
表現の自由の誤用は、様々なサイバー犯罪や反社会的活動の増加につながった。
ヘイトスピーチ(Hate speech)は、社会的ファブリックの完全性に脅威をもたらす可能性があるため、他の問題と同様に真剣に対処する必要がある。
本稿では,ソーシャルメディアにおける様々なヘイトスピーチの検出に様々な埋め込みを応用したディープラーニングアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-29T17:28:46Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。