論文の概要: HateDay: Insights from a Global Hate Speech Dataset Representative of a Day on Twitter
- arxiv url: http://arxiv.org/abs/2411.15462v1
- Date: Sat, 23 Nov 2024 05:54:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:21:52.943303
- Title: HateDay: Insights from a Global Hate Speech Dataset Representative of a Day on Twitter
- Title(参考訳): HateDay: 世界のヘイトスピーチデータセットからTwitterで1日を振り返る
- Authors: Manuel Tonneau, Diyi Liu, Niyati Malhotra, Scott A. Hale, Samuel P. Fraiberger, Victor Orozco-Olvera, Paul Röttger,
- Abstract要約: ヘイトスピーチの流行と構成が言語や国によってどのように異なるかを示す。
モデルがヘイトスピーチと攻撃的スピーチを区別できないことを含む、パフォーマンスの低下を説明するいくつかの要因を同定する。
このような低性能は、公開検出モデルによる音声のモデレーションを嫌うものだ、と我々は主張する。
- 参考スコア(独自算出の注目度): 9.120816065488876
- License:
- Abstract: To tackle the global challenge of online hate speech, a large body of research has developed detection models to flag hate speech in the sea of online content. Yet, due to systematic biases in evaluation datasets, detection performance in real-world settings remains unclear, let alone across geographies. To address this issue, we introduce HateDay, the first global hate speech dataset representative of social media settings, randomly sampled from all tweets posted on September 21, 2022 for eight languages and four English-speaking countries. Using HateDay, we show how the prevalence and composition of hate speech varies across languages and countries. We also find that evaluation on academic hate speech datasets overestimates real-world detection performance, which we find is very low, especially for non-European languages. We identify several factors explaining poor performance, including models' inability to distinguish between hate and offensive speech, and the misalignment between academic target focus and real-world target prevalence. We finally argue that such low performance renders hate speech moderation with public detection models unfeasible, even in a human-in-the-loop setting which we find is prohibitively costly. Overall, we emphasize the need to evaluate future detection models from academia and platforms in real-world settings to address this global challenge.
- Abstract(参考訳): オンラインヘイトスピーチの世界的な課題に取り組むために、オンラインコンテンツの海の中でヘイトスピーチをフラグする検出モデルを開発した。
しかし、評価データセットの体系的なバイアスのため、実世界の設定における検出性能は、地理的に例外なく不明確である。
この問題に対処するため、2022年9月21日に投稿された全ツイートからランダムにサンプルした、ソーシャルメディア設定を代表した初のグローバルヘイトスピーチデータセットであるHateDayを紹介した。
HateDayを用いて、ヘイトスピーチの頻度と構成が言語や国によってどのように異なるかを示す。
また,学術的ヘイトスピーチデータセットの評価は実世界の検出性能を過大評価している。
ヘイトスピーチと攻撃的スピーチを区別できないモデルや、学術的対象と現実的対象の有病率の相違など、パフォーマンスの低下を説明する要因をいくつか挙げる。
このような低性能は、公的な検出モデルによるヘイトスピーチのモデレーションが不可能である、とようやく論じる。
全体として、このグローバルな課題に対処するために、学術やプラットフォームから将来の検出モデルを評価する必要があることを強調する。
関連論文リスト
- Dealing with Annotator Disagreement in Hate Speech Classification [0.0]
本稿では,アノテータの不一致に対処するための戦略について検討する。
トルコのつぶやきにおけるヘイトスピーチ分類に関するアノテータの不一致に対処するための様々なアプローチを、細調整されたBERTモデルに基づいて評価した。
本研究は,問題の重要性を強調し,オンライン談話におけるヘイトスピーチの検出と理解のための最先端のベンチマーク結果を提供する。
論文 参考訳(メタデータ) (2025-02-12T10:19:50Z) - A Federated Approach to Few-Shot Hate Speech Detection for Marginalized Communities [43.37824420609252]
ネット上でのヘイトスピーチは、辺境化コミュニティにとって未検討の課題だ。
本稿では,インターネット上のヘイトスピーチから身を守るためのプライバシ保護ツールを用いて,支配的言語が低リソースの社会に居住する疎外化コミュニティを提供することを目的とする。
論文 参考訳(メタデータ) (2024-12-06T11:00:05Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - A New Generation of Perspective API: Efficient Multilingual
Character-level Transformers [66.9176610388952]
Google JigsawのAspective APIの次期バージョンの基礎を提示する。
このアプローチの中心は、単一の多言語トークンフリーなCharformerモデルである。
静的な語彙を強制することで、さまざまな設定で柔軟性が得られます。
論文 参考訳(メタデータ) (2022-02-22T20:55:31Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Highly Generalizable Models for Multilingual Hate Speech Detection [0.0]
ヘイトスピーチ検出は過去10年で重要な研究課題となっている。
我々は11言語からなるデータセットをコンパイルし、組み合わせたデータとバイナリラベル(ヘイトスピーチかヘイトスピーチでないか)を解析することで、異なる解決を行う。
多言語-トレイン型モノリンガルテスト,モノリンガルトレイン型モノリンガルテスト,言語-家族型モノリンガルテストのシナリオである。
論文 参考訳(メタデータ) (2022-01-27T03:09:38Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Reducing Target Group Bias in Hate Speech Detectors [56.94616390740415]
大規模な公開データセットでトレーニングされたテキスト分類モデルは、いくつかの保護されたグループで大幅に性能が低下する可能性がある。
本稿では,トークンレベルのヘイトセンスの曖昧さを実現し,トークンのヘイトセンスの表現を検知に利用することを提案する。
論文 参考訳(メタデータ) (2021-12-07T17:49:34Z) - Cross-lingual Capsule Network for Hate Speech Detection in Social Media [6.531659195805749]
本研究では,言語間のヘイトスピーチ検出タスクについて検討し,ヘイトスピーチのリソースをある言語から別の言語に適応させることによって問題に対処する。
本稿では,ヘイトスピーチのための言語間カプセルネットワーク学習モデルと追加のドメイン固有語彙意味論を組み合わせることを提案する。
私たちのモデルは、AMI@Evalita 2018とAMI@Ibereval 2018のベンチマークデータセットで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-08-06T12:53:41Z) - Towards Hate Speech Detection at Large via Deep Generative Modeling [4.080068044420974]
ヘイトスピーチ検出はソーシャルメディアプラットフォームにおいて重要な問題である。
生成言語モデルにより生成された100万件の現実的憎悪と非憎悪のシーケンスのデータセットを提示する。
5つの公開ヘイトスピーチデータセットで一貫した、重要なパフォーマンス改善を実証する。
論文 参考訳(メタデータ) (2020-05-13T15:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。