論文の概要: AngryBERT: Joint Learning Target and Emotion for Hate Speech Detection
- arxiv url: http://arxiv.org/abs/2103.11800v1
- Date: Sun, 14 Mar 2021 16:17:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 02:48:24.843368
- Title: AngryBERT: Joint Learning Target and Emotion for Hate Speech Detection
- Title(参考訳): AngryBERT:ヘイトスピーチ検出のための共同学習目標と感情
- Authors: Md Rabiul Awal, Rui Cao, Roy Ka-Wei Lee, Sandra Mitrovic
- Abstract要約: 本論文では,感情分類によるヘイトスピーチ検出と,二次的関連タスクとしてのターゲット同定を共同学習するマルチタスク学習型モデルであるAngryBERTを提案する。
実験の結果,AngryBERTは最先端のシングルタスク学習やマルチタスク学習のベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 5.649040805759824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated hate speech detection in social media is a challenging task that
has recently gained significant traction in the data mining and Natural
Language Processing community. However, most of the existing methods adopt a
supervised approach that depended heavily on the annotated hate speech
datasets, which are imbalanced and often lack training samples for hateful
content. This paper addresses the research gaps by proposing a novel multitask
learning-based model, AngryBERT, which jointly learns hate speech detection
with sentiment classification and target identification as secondary relevant
tasks. We conduct extensive experiments to augment three commonly-used hate
speech detection datasets. Our experiment results show that AngryBERT
outperforms state-of-the-art single-task-learning and multitask learning
baselines. We conduct ablation studies and case studies to empirically examine
the strengths and characteristics of our AngryBERT model and show that the
secondary tasks are able to improve hate speech detection.
- Abstract(参考訳): ソーシャルメディアにおけるヘイトスピーチの自動検出は、最近データマイニングと自然言語処理コミュニティで大きな注目を集めている課題である。
しかし、既存の手法の多くは、不均衡でしばしばヘイトフルコンテンツのトレーニングサンプルを欠く、注釈付きヘイトスピーチデータセットに大きく依存する教師付きアプローチを採用している。
本稿では,新たなマルチタスク学習ベースモデルであるangrybertを提案し,感情分類とターゲット識別を併用したヘイトスピーチ検出を副次的なタスクとして提案する。
3つの一般的なヘイトスピーチ検出データセットを補完する大規模な実験を行った。
実験の結果、AngryBERTは最先端のシングルタスク学習とマルチタスク学習のベースラインを上回っていることがわかった。
我々は,AngryBERTモデルの強みと特徴を実証的に検証するためにアブレーション研究とケーススタディを行い,その二次課題がヘイトスピーチの検出を改善することを示す。
関連論文リスト
- Hierarchical Sentiment Analysis Framework for Hate Speech Detection: Implementing Binary and Multiclass Classification Strategy [0.0]
本稿では,英語におけるヘイトスピーチを検出するために,共有感情表現と統合された新しいマルチタスクモデルを提案する。
我々は、感情分析とトランスフォーマーに基づく訓練モデルを利用することで、複数のデータセット間でのヘイトスピーチの検出を大幅に改善できると結論付けた。
論文 参考訳(メタデータ) (2024-11-03T04:11:33Z) - Bridging Modalities: Enhancing Cross-Modality Hate Speech Detection with Few-Shot In-Context Learning [4.136573141724715]
インターネット上でのヘイトスピーチは、デジタルプラットフォームの安全性にとって大きな課題となる。
近年の研究では、特定のモダリティに合わせた検出モデルが開発されている。
本研究では,大規模言語モデルを用いたテキスト内学習を多用した広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-10-08T01:27:12Z) - Hate Speech Detection via Dual Contrastive Learning [25.878271501274245]
本稿では,ヘイトスピーチ検出のための新しい双方向コントラスト学習フレームワークを提案する。
本フレームワークは,自己教師型学習と教師型学習の損失を協調的に最適化し,スパンレベルの情報を取得する。
公開可能な2つの英語データセットの実験を行い、実験結果から、提案モデルが最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T13:23:36Z) - SLUE Phase-2: A Benchmark Suite of Diverse Spoken Language Understanding
Tasks [88.4408774253634]
音声言語理解(SLU)タスクは、音声研究コミュニティで何十年にもわたって研究されてきた。
SLUタスクベンチマークはそれほど多くはなく、既存のベンチマークの多くは、すべての研究者が自由に利用できないデータを使っている。
最近の研究は、いくつかのタスクにそのようなベンチマークを導入し始めている。
論文 参考訳(メタデータ) (2022-12-20T18:39:59Z) - ToKen: Task Decomposition and Knowledge Infusion for Few-Shot Hate
Speech Detection [85.68684067031909]
この問題を数ショットの学習タスクとみなし、タスクを「構成」部分に分解することで大きな成果を上げている。
さらに、推論データセット(例えばAtomic 2020)から知識を注入することで、パフォーマンスはさらに向上する。
論文 参考訳(メタデータ) (2022-05-25T05:10:08Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Anti-Asian Hate Speech Detection via Data Augmented Semantic Relation
Inference [4.885207279350052]
本稿では,自然言語推論フレームワークにおけるヘイトスピーチ検出を強化するために,感情ハッシュタグを活用する新しい手法を提案する。
我々は,(1)オンライン投稿と感情ハッシュタグ間の意味的関係推論,(2)これらの投稿に対する感情分類の2つのタスクを同時に実行する新しいフレームワークSRICを設計する。
論文 参考訳(メタデータ) (2022-04-14T15:03:35Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - Detection of Hate Speech using BERT and Hate Speech Word Embedding with
Deep Model [0.5801044612920815]
本稿では,双方向LSTMに基づくディープモデルにドメイン固有の単語を埋め込み,ヘイトスピーチを自動的に検出・分類する可能性について検討する。
実験の結果、Bidirectional LSTMベースのディープモデルによるドメイン固有単語の埋め込みは93%のf1スコアを獲得し、BERTは96%のf1スコアを達成した。
論文 参考訳(メタデータ) (2021-11-02T11:42:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。