論文の概要: Generalizing Hate Speech Detection Using Multi-Task Learning: A Case Study of Political Public Figures
- arxiv url: http://arxiv.org/abs/2208.10598v2
- Date: Fri, 04 Apr 2025 05:08:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:46:39.696122
- Title: Generalizing Hate Speech Detection Using Multi-Task Learning: A Case Study of Political Public Figures
- Title(参考訳): マルチタスク学習によるヘイトスピーチ検出の一般化 : 政治的パブリックフィギュアを事例として
- Authors: Lanqin Yuan, Marian-Andrei Rizoiu,
- Abstract要約: 本研究では,複数のヘイトスピーチデータセットを同時に学習するマルチタスク学習パイプラインを提案する。
列車-テスト分割における一般化誤差を調べる際には強い結果が得られ、これまで見つからなかったデータセットの予測では大幅に改善された。
- 参考スコア(独自算出の注目度): 3.825159708387601
- License:
- Abstract: Automatic identification of hateful and abusive content is vital in combating the spread of harmful online content and its damaging effects. Most existing works evaluate models by examining the generalization error on train-test splits on hate speech datasets. These datasets often differ in their definitions and labeling criteria, leading to poor generalization performance when predicting across new domains and datasets. This work proposes a new Multi-task Learning (MTL) pipeline that trains simultaneously across multiple hate speech datasets to construct a more encompassing classification model. Using a dataset-level leave-one-out evaluation (designating a dataset for testing and jointly training on all others), we trial the MTL detection on new, previously unseen datasets. Our results consistently outperform a large sample of existing work. We show strong results when examining the generalization error in train-test splits and substantial improvements when predicting on previously unseen datasets. Furthermore, we assemble a novel dataset, dubbed PubFigs, focusing on the problematic speech of American Public Political Figures. We crowdsource-label using Amazon MTurk more than $20,000$ tweets and machine-label problematic speech in all the $305,235$ tweets in PubFigs. We find that the abusive and hate tweeting mainly originates from right-leaning figures and relates to six topics, including Islam, women, ethnicity, and immigrants. We show that MTL builds embeddings that can simultaneously separate abusive from hate speech, and identify its topics.
- Abstract(参考訳): 有害なオンラインコンテンツの拡散と有害な影響に対抗するためには,憎悪や虐待のコンテンツの自動識別が不可欠である。
既存の研究の多くは、ヘイトスピーチデータセット上での列車-テスト分割の一般化誤差を調べてモデルを評価する。
これらのデータセットは定義やラベルの基準によってしばしば異なり、新しいドメインやデータセットをまたいで予測する際の一般化性能は低下する。
本研究では,複数のヘイトスピーチデータセットを同時に学習し,より包括的な分類モデルを構築するマルチタスク学習(MTL)パイプラインを提案する。
データセットレベルのLeft-one-out評価(テスト用のデータセットを設計し、他のすべてのデータセットを共同でトレーニングする)を用いて、新しい、未確認のデータセットに対するMTL検出を試行する。
私たちの結果は、既存の作業の大きなサンプルを一貫して上回ります。
列車-テスト分割における一般化誤差を調べる際には強い結果が得られ、これまで見つからなかったデータセットの予測では大幅に改善された。
さらに、アメリカ公共政治図の問題点に焦点をあてて、PubFigsと呼ばれる新しいデータセットを組み立てる。
われわれはAmazon MTurkを2万ドル以上のツイートでクラウドソースし、PubFigsの305,235ドルのツイートでマシンラベルに問題があった。
虐待的かつ憎悪的なツイートは、主に右利きの人物から生まれており、イスラム教、女性、民族、移民を含む6つのトピックに関連する。
MTLはヘイトスピーチから虐待を同時に分離し,そのトピックを識別できる組込みを構築できることを示す。
関連論文リスト
- Improving Adversarial Data Collection by Supporting Annotators: Lessons from GAHD, a German Hate Speech Dataset [3.8965079384103865]
GAHDは,1,11kの例を含む新しいドイツ語のアディバーショナル・ヘイト音声データセットである。
実験の結果,最先端のヘイトスピーチ検出モデルにおいても,結果のデータセットは困難であることが判明した。
論文 参考訳(メタデータ) (2024-03-28T16:44:14Z) - Latent Feature-based Data Splits to Improve Generalisation Evaluation: A
Hate Speech Detection Case Study [33.1099258648462]
我々は、モデルが潜在空間の盲点において破滅的に失敗することを示す2つの分割変種を提示する。
解析の結果,データ分割の面面レベル特性は明らかになく,性能が低下していることが示唆された。
論文 参考訳(メタデータ) (2023-11-16T23:49:55Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - Robust Hate Speech Detection in Social Media: A Cross-Dataset Empirical
Evaluation [5.16706940452805]
我々は、さまざまなヘイトスピーチ検出データセット上で、言語モデルを微調整する大規模なクロスデータセット比較を行う。
この分析は、トレーニングデータとして使用するデータセットが、他のデータセットよりも一般化可能であることを示している。
実験により、ヘイトスピーチ検出データセットの組み合わせが、堅牢なヘイトスピーチ検出モデルの開発にどのように貢献するかが示されている。
論文 参考訳(メタデータ) (2023-07-04T12:22:40Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - The Change that Matters in Discourse Parsing: Estimating the Impact of
Domain Shift on Parser Error [14.566990078034241]
我々は、誤差ギャップに直接結び付けることができる理論的領域適応文献から統計を用いる。
本研究では,6つの談話データセットにおける2400以上の実験の大規模実験を通じて,この統計の偏りを理論的・理論的に誤差ギャップの推定指標として検討した。
論文 参考訳(メタデータ) (2022-03-21T20:04:23Z) - A Closer Look at Debiased Temporal Sentence Grounding in Videos:
Dataset, Metric, and Approach [53.727460222955266]
テンポラル・センテンス・グラウンディング・イン・ビデオ(TSGV)は、未編集のビデオに自然言語文を埋め込むことを目的としている。
最近の研究では、現在のベンチマークデータセットには明らかなモーメントアノテーションバイアスがあることが判明している。
偏りのあるデータセットによる膨らませ評価を緩和するため、基礎的リコールスコアを割引する新しい評価基準「dR@n,IoU@m」を導入する。
論文 参考訳(メタデータ) (2022-03-10T08:58:18Z) - Unpaired Referring Expression Grounding via Bidirectional Cross-Modal
Matching [53.27673119360868]
表現基盤の参照はコンピュータビジョンにおいて重要かつ困難な課題である。
本稿では,これらの課題に対処する新しい双方向クロスモーダルマッチング(BiCM)フレームワークを提案する。
私たちのフレームワークは、2つの一般的なグラウンドデータセットで、以前の作業の6.55%と9.94%を上回っています。
論文 参考訳(メタデータ) (2022-01-18T01:13:19Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Leveraging Multi-domain, Heterogeneous Data using Deep Multitask
Learning for Hate Speech Detection [21.410160004193916]
畳み込みニューラルネットワークに基づくマルチタスク学習モデル(MTL)フットノートコードを提案し,複数のソースからの情報を活用する。
3つのベンチマークデータセットで実施した実証分析は,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-03-23T09:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。