論文の概要: Towards Generalizable Generic Harmful Speech Datasets for Implicit Hate Speech Detection
- arxiv url: http://arxiv.org/abs/2506.16476v1
- Date: Thu, 19 Jun 2025 17:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.186388
- Title: Towards Generalizable Generic Harmful Speech Datasets for Implicit Hate Speech Detection
- Title(参考訳): 包括的ヘイト音声検出のための一般化可能な高調波音声データセットの実現に向けて
- Authors: Saad Almohaimeed, Saleh Almohaimeed, Damla Turgut, Ladislau Bölöni,
- Abstract要約: 過激なヘイトスピーチはソーシャルメディアプラットフォームにとって重要な課題となっている。
本稿では,暗黙のヘイトスピーチの検出に対処し,多様なデータセット間の一般化性を高める手法を提案する。
- 参考スコア(独自算出の注目度): 7.762212551172391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit hate speech has recently emerged as a critical challenge for social media platforms. While much of the research has traditionally focused on harmful speech in general, the need for generalizable techniques to detect veiled and subtle forms of hate has become increasingly pressing. Based on lexicon analysis, we hypothesize that implicit hate speech is already present in publicly available harmful speech datasets but may not have been explicitly recognized or labeled by annotators. Additionally, crowdsourced datasets are prone to mislabeling due to the complexity of the task and often influenced by annotators' subjective interpretations. In this paper, we propose an approach to address the detection of implicit hate speech and enhance generalizability across diverse datasets by leveraging existing harmful speech datasets. Our method comprises three key components: influential sample identification, reannotation, and augmentation using Llama-3 70B and GPT-4o. Experimental results demonstrate the effectiveness of our approach in improving implicit hate detection, achieving a +12.9-point F1 score improvement compared to the baseline.
- Abstract(参考訳): 過激なヘイトスピーチは、最近ソーシャルメディアプラットフォームにとって重要な課題として浮上した。
研究の多くは伝統的に有害なスピーチに焦点を合わせてきたが、悪質で微妙なヘイトを検知するための一般化可能な技術の必要性はますます強まっている。
辞書分析から,暗黙のヘイトスピーチは公に利用可能な有害な音声データセットにすでに存在するが,アノテータによって明示的に認識あるいはラベル付けされていない可能性があると仮説を立てる。
さらに、クラウドソースされたデータセットは、タスクの複雑さのために誤ラベルをしがちであり、アノテータの主観的解釈に影響されることが多い。
本稿では,既存の有害な音声データセットを活用することで,暗黙のヘイトスピーチの検出に対処し,多様なデータセット間の一般化性を高める手法を提案する。
本手法は, Llama-370BおよびGPT-4oを用いたサンプル同定, 再アノテーション, 拡張の3つの重要な構成要素からなる。
実験の結果,<sup>12.9</sup>点F1スコアがベースラインよりも向上し,暗黙のヘイト検出が向上した。
関連論文リスト
- Compositional Generalisation for Explainable Hate Speech Detection [52.41588643566991]
ヘイトスピーチ検出はオンラインコンテンツモデレーションの鍵であるが、現在のモデルはトレーニングデータ以上の一般化に苦慮している。
モデルがよりきめ細かなスパンレベルのアノテーションでトレーニングされている場合でも、それらのラベルの意味を周囲のコンテキストから切り離すことに苦労しています。
本研究では,すべての文脈で同じ頻度で表現が生じるデータセット上でのトレーニングにより,一般化が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2025-06-04T13:07:36Z) - On the Challenges of Building Datasets for Hate Speech Detection [0.0]
我々はまず,データ中心のレンズを用いてヘイトスピーチ検出を取り巻く問題を分析する。
次に、データ生成パイプラインを7つの広範囲にわたってカプセル化する、包括的なフレームワークの概要を示します。
論文 参考訳(メタデータ) (2023-09-06T11:15:47Z) - ToKen: Task Decomposition and Knowledge Infusion for Few-Shot Hate
Speech Detection [85.68684067031909]
この問題を数ショットの学習タスクとみなし、タスクを「構成」部分に分解することで大きな成果を上げている。
さらに、推論データセット(例えばAtomic 2020)から知識を注入することで、パフォーマンスはさらに向上する。
論文 参考訳(メタデータ) (2022-05-25T05:10:08Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Latent Hatred: A Benchmark for Understanding Implicit Hate Speech [22.420275418616242]
この研究は、暗黙のヘイトスピーチの理論的に正当化された分類法と、各メッセージにきめ細かいラベルを付けたベンチマークコーパスを導入している。
本稿では、同時代のベースラインを用いて、暗黙のヘイトスピーチを検出し、説明するためにデータセットを体系的に分析する。
論文 参考訳(メタデータ) (2021-09-11T16:52:56Z) - Statistical Analysis of Perspective Scores on Hate Speech Detection [7.447951461558536]
最先端のヘイトスピーチ分類器は、トレーニングデータと同じ特徴分布を持つデータ上でテストする場合のみ効率的である。
このような低レベルの特徴に依存する多様なデータ分布は、データの自然なバイアスによる欠如の主な原因である。
異なるヘイトスピーチデータセットは、パースペクティブスコアを抽出するという点では、非常によく似ている。
論文 参考訳(メタデータ) (2021-06-22T17:17:35Z) - An Information Retrieval Approach to Building Datasets for Hate Speech
Detection [3.587367153279349]
「一般的な慣行は、既知の憎しみの言葉を含むツイートを注釈するだけである。」
第二の課題は、ヘイトスピーチの定義が高度に変動し、主観的である傾向があることである。
我々の重要な洞察は、ヘイトスピーチの希少性と主観性が情報検索(IR)の関連性に類似していることである。
論文 参考訳(メタデータ) (2021-06-17T19:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。