論文の概要: How Hate Speech Varies by Target Identity: A Computational Analysis
- arxiv url: http://arxiv.org/abs/2210.10839v1
- Date: Wed, 19 Oct 2022 19:06:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 14:23:27.793597
- Title: How Hate Speech Varies by Target Identity: A Computational Analysis
- Title(参考訳): ターゲットアイデンティティによるヘイトスピーチの表現方法:計算分析
- Authors: Michael Miller Yoder, Lynnette Hui Xian Ng, David West Brown, Kathleen
M. Carley
- Abstract要約: ヘイトスピーチが対象とするアイデンティティに応じて体系的にどう変化するかを検討する。
対象のカテゴリーは、対象のアイデンティティグループの相対的な社会的力よりも、ヘイトスピーチの言語に強い影響を及ぼすと考えられる。
- 参考スコア(独自算出の注目度): 5.746505534720595
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates how hate speech varies in systematic ways according
to the identities it targets. Across multiple hate speech datasets annotated
for targeted identities, we find that classifiers trained on hate speech
targeting specific identity groups struggle to generalize to other targeted
identities. This provides empirical evidence for differences in hate speech by
target identity; we then investigate which patterns structure this variation.
We find that the targeted demographic category (e.g. gender/sexuality or
race/ethnicity) appears to have a greater effect on the language of hate speech
than does the relative social power of the targeted identity group. We also
find that words associated with hate speech targeting specific identities often
relate to stereotypes, histories of oppression, current social movements, and
other social contexts specific to identities. These experiments suggest the
importance of considering targeted identity, as well as the social contexts
associated with these identities, in automated hate speech classification.
- Abstract(参考訳): 本稿では,ヘイトスピーチが対象とするアイデンティティに応じて,体系的にどう変化するかを検討する。
複数のヘイトスピーチデータセットに、特定のアイデンティティグループを対象としたヘイトスピーチを訓練した分類器が、他のターゲットidへの一般化に苦戦していることがわかりました。
これによって、ターゲットのアイデンティティによるヘイトスピーチの違いに対する実証的な証拠が得られる。
対象のカテゴリー(性別・性・人種・民族など)は、対象とするアイデンティティグループの相対的社会的パワーよりも、ヘイトスピーチの言語により大きな影響を与えていると考えられる。
また,特定のアイデンティティをターゲットとしたヘイトスピーチに関連する単語は,ステレオタイプ,抑圧の履歴,現在の社会運動,その他のアイデンティティ特有の社会的文脈にしばしば関連していることがわかった。
これらの実験は、自動ヘイトスピーチ分類において、ターゲットのアイデンティティや、これらのアイデンティティに関連する社会的文脈を考慮することの重要性を示唆している。
関連論文リスト
- Hierarchical Sentiment Analysis Framework for Hate Speech Detection: Implementing Binary and Multiclass Classification Strategy [0.0]
本稿では,英語におけるヘイトスピーチを検出するために,共有感情表現と統合された新しいマルチタスクモデルを提案する。
我々は、感情分析とトランスフォーマーに基づく訓練モデルを利用することで、複数のデータセット間でのヘイトスピーチの検出を大幅に改善できると結論付けた。
論文 参考訳(メタデータ) (2024-11-03T04:11:33Z) - ProvocationProbe: Instigating Hate Speech Dataset from Twitter [0.39052860539161904]
textitProvocationProbeは、ヘイトスピーチを一般的なヘイトスピーチと区別するためのデータセットである。
本研究では、Twitterから約2万件のツイートを収集し、全世界で9件の論争を巻き起こした。
論文 参考訳(メタデータ) (2024-10-25T16:57:59Z) - Unveiling Social Media Comments with a Novel Named Entity Recognition System for Identity Groups [2.5849042763002426]
我々はアイデンティティグループのための名前付きエンティティ認識(NER)システムを開発した。
我々のツールは、文が攻撃を含むかどうかを検知するだけでなく、上記のグループに対応する文トークンもタグ付けする。
ソーシャルメディアに関するケーススタディで,Facebookのコメントを注釈付けし,IDグループに言及するニュースに関連するコメントと比較し,ツールの有用性を検証した。
論文 参考訳(メタデータ) (2024-05-13T19:33:18Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Latent Hatred: A Benchmark for Understanding Implicit Hate Speech [22.420275418616242]
この研究は、暗黙のヘイトスピーチの理論的に正当化された分類法と、各メッセージにきめ細かいラベルを付けたベンチマークコーパスを導入している。
本稿では、同時代のベースラインを用いて、暗黙のヘイトスピーチを検出し、説明するためにデータセットを体系的に分析する。
論文 参考訳(メタデータ) (2021-09-11T16:52:56Z) - Protecting gender and identity with disentangled speech representations [49.00162808063399]
音声における性情報保護は,話者識別情報のモデル化よりも効果的であることを示す。
性別情報をエンコードし、2つの敏感な生体識別子を解読する新しい方法を提示する。
論文 参考訳(メタデータ) (2021-04-22T13:31:41Z) - Investigating Deep Learning Approaches for Hate Speech Detection in
Social Media [20.974715256618754]
表現の自由の誤用は、様々なサイバー犯罪や反社会的活動の増加につながった。
ヘイトスピーチ(Hate speech)は、社会的ファブリックの完全性に脅威をもたらす可能性があるため、他の問題と同様に真剣に対処する必要がある。
本稿では,ソーシャルメディアにおける様々なヘイトスピーチの検出に様々な埋め込みを応用したディープラーニングアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-29T17:28:46Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。