論文の概要: Reducing Target Group Bias in Hate Speech Detectors
- arxiv url: http://arxiv.org/abs/2112.03858v1
- Date: Tue, 7 Dec 2021 17:49:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 14:56:12.715264
- Title: Reducing Target Group Bias in Hate Speech Detectors
- Title(参考訳): ヘイトスピーチ検出器におけるターゲットグループバイアスの低減
- Authors: Darsh J Shah, Sinong Wang, Han Fang, Hao Ma and Luke Zettlemoyer
- Abstract要約: 大規模な公開データセットでトレーニングされたテキスト分類モデルは、いくつかの保護されたグループで大幅に性能が低下する可能性がある。
本稿では,トークンレベルのヘイトセンスの曖昧さを実現し,トークンのヘイトセンスの表現を検知に利用することを提案する。
- 参考スコア(独自算出の注目度): 56.94616390740415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ubiquity of offensive and hateful content on online fora necessitates the
need for automatic solutions that detect such content competently across target
groups. In this paper we show that text classification models trained on large
publicly available datasets despite having a high overall performance, may
significantly under-perform on several protected groups. On the
\citet{vidgen2020learning} dataset, we find the accuracy to be 37\% lower on an
under annotated Black Women target group and 12\% lower on Immigrants, where
hate speech involves a distinct style. To address this, we propose to perform
token-level hate sense disambiguation, and utilize tokens' hate sense
representations for detection, modeling more general signals. On two publicly
available datasets, we observe that the variance in model accuracy across
target groups drops by at least 30\%, improving the average target group
performance by 4\% and worst case performance by 13\%.
- Abstract(参考訳): オンライン上の攻撃的かつ憎悪的なコンテンツの普遍性は、ターゲットグループ間で有能なコンテンツを検出する自動的なソリューションの必要性を招いている。
本稿では,大規模公開データセット上でトレーニングされたテキスト分類モデルについて,全体的な性能は高いが,保護された複数のグループでは非常に過小評価される可能性があることを示す。
\citet{vidgen2020learning}データセットでは、アノテートされた黒人女性ターゲットグループでは37\%、移民では12\%、ヘイトスピーチには異なるスタイルが伴う。
そこで本稿では,トークンレベルのヘイトセンスの曖昧さを解消し,トークンのヘイトセンス表現を用いて検出,より一般的な信号のモデリングを行う。
2つの公開データセットにおいて,対象群間のモデルの精度のばらつきが少なくとも30\%減少し,平均的な対象群性能が4\%,最悪の場合のパフォーマンスが13\%向上した。
関連論文リスト
- THOS: A Benchmark Dataset for Targeted Hate and Offensive Speech [2.7061497863588126]
THOSは、メッセージのターゲットに関する細かいアノテーションを手動でラベル付けした8.3kのツイートのデータセットである。
このデータセットは,大規模言語モデルに基づく分類器を訓練し,この粒度レベルでの分類を可能にすることを実証する。
論文 参考訳(メタデータ) (2023-11-11T00:30:31Z) - On the Challenges of Building Datasets for Hate Speech Detection [0.0]
我々はまず,データ中心のレンズを用いてヘイトスピーチ検出を取り巻く問題を分析する。
次に、データ生成パイプラインを7つの広範囲にわたってカプセル化する、包括的なフレームワークの概要を示します。
論文 参考訳(メタデータ) (2023-09-06T11:15:47Z) - When the Majority is Wrong: Modeling Annotator Disagreement for Subjective Tasks [45.14664901245331]
ヘイトスピーチの検出における重要な問題は、ある声明が人口集団に対して攻撃的であるかどうかを決定することである。
我々は、潜在的に攻撃的なテキストに基づいて、個々のアノテータ評価を予測するモデルを構築した。
その結果、アノテータの評価は、その人口統計情報とオンラインコンテンツに関する意見を用いて予測できることがわかった。
論文 参考訳(メタデータ) (2023-05-11T07:55:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Statistical Analysis of Perspective Scores on Hate Speech Detection [7.447951461558536]
最先端のヘイトスピーチ分類器は、トレーニングデータと同じ特徴分布を持つデータ上でテストする場合のみ効率的である。
このような低レベルの特徴に依存する多様なデータ分布は、データの自然なバイアスによる欠如の主な原因である。
異なるヘイトスピーチデータセットは、パースペクティブスコアを抽出するという点では、非常によく似ている。
論文 参考訳(メタデータ) (2021-06-22T17:17:35Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Selective Classification Can Magnify Disparities Across Groups [89.14499988774985]
選択的分類は平均的精度を向上させることができるが、既存の精度格差を同時に増大させることができる。
禁忌の増大は、一部のグループでのアキュラシーを減少させることもある。
我々は,グループ間で類似のフルカバレッジ精度を実現する分散ロバストモデルを訓練し,選択分類が各グループを均一に改善することを示す。
論文 参考訳(メタデータ) (2020-10-27T08:51:30Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。