論文の概要: Combating high variance in Data-Scarce Implicit Hate Speech
Classification
- arxiv url: http://arxiv.org/abs/2208.13595v1
- Date: Mon, 29 Aug 2022 13:45:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:01:22.175210
- Title: Combating high variance in Data-Scarce Implicit Hate Speech
Classification
- Title(参考訳): 暗黙的ヘイトスピーチ分類における高ばらつき対策
- Authors: Debaditya Pal, Kaustubh Chaudhari, Harsh Sharma
- Abstract要約: 我々は,最先端の性能を実現する新しいRoBERTaモデルを開発した。
本稿では,様々な最適化手法と正規化手法を探求し,最先端性能を実現するRoBERTaベースの新しいモデルを開発する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hate speech classification has been a long-standing problem in natural
language processing. However, even though there are numerous hate speech
detection methods, they usually overlook a lot of hateful statements due to
them being implicit in nature. Developing datasets to aid in the task of
implicit hate speech classification comes with its own challenges; difficulties
are nuances in language, varying definitions of what constitutes hate speech,
and the labor-intensive process of annotating such data. This had led to a
scarcity of data available to train and test such systems, which gives rise to
high variance problems when parameter-heavy transformer-based models are used
to address the problem. In this paper, we explore various optimization and
regularization techniques and develop a novel RoBERTa-based model that achieves
state-of-the-art performance.
- Abstract(参考訳): ヘイトスピーチ分類は、自然言語処理における長年の問題である。
しかしながら、多くのヘイトスピーチ検出手法が存在するにもかかわらず、自然界において暗黙的であるため、彼らはしばしば憎悪的な発言を多く見落としている。
暗黙のヘイトスピーチ分類のタスクを支援するデータセットの開発には、言語におけるニュアンス、ヘイトスピーチを構成するものの定義の相違、そしてそのようなデータに注釈を付ける労働集約的なプロセスなど、独自の課題がある。
この結果、そのようなシステムのトレーニングやテストに利用できるデータが不足しており、パラメータ重変換モデルを用いてこの問題に対処する場合に高分散問題が発生する。
本稿では,様々な最適化手法と正規化手法を検討し,最先端性能を実現する新しいロバータモデルを開発した。
関連論文リスト
- Hierarchical Sentiment Analysis Framework for Hate Speech Detection: Implementing Binary and Multiclass Classification Strategy [0.0]
本稿では,英語におけるヘイトスピーチを検出するために,共有感情表現と統合された新しいマルチタスクモデルを提案する。
我々は、感情分析とトランスフォーマーに基づく訓練モデルを利用することで、複数のデータセット間でのヘイトスピーチの検出を大幅に改善できると結論付けた。
論文 参考訳(メタデータ) (2024-11-03T04:11:33Z) - Hate Speech Detection in Limited Data Contexts using Synthetic Data
Generation [1.9506923346234724]
本稿では,限られたデータコンテキストにおいて,オンラインヘイトスピーチ検出のためのデータ不足の問題に対処するデータ拡張手法を提案する。
対象言語におけるヘイトスピーチデータの新しい例を合成する3つの方法を提案する。
以上の結果から, 合成データを用いたモデルでは, 対象領域で利用可能なサンプルに対してのみ学習したモデルが比較可能であり, 性能が良好である場合も見いだされた。
論文 参考訳(メタデータ) (2023-10-04T15:10:06Z) - Making Retrieval-Augmented Language Models Robust to Irrelevant Context [55.564789967211844]
ALMの重要なデシプラタムは、検索された情報が関連する場合のパフォーマンスをモデル化するのに役立つことである。
近年の研究では、検索の増大がパフォーマンスに悪影響を及ぼすことが示されている。
論文 参考訳(メタデータ) (2023-10-02T18:52:35Z) - Causality Guided Disentanglement for Cross-Platform Hate Speech
Detection [15.489092194564149]
ソーシャルメディアプラットフォームはオープンな言論を促進する価値があるにもかかわらず、しばしば有害なコンテンツを広めるために利用される。
本研究では,あるプラットフォームのデータに基づいて学習し,複数のプラットフォームに一般化可能な,クロスプラットフォームのヘイトスピーチ検出モデルを提案する。
4つのプラットフォームにわたる実験は、一般化されたヘイトスピーチを検出する既存の最先端手法と比較して、モデルの有効性が向上していることを強調した。
論文 参考訳(メタデータ) (2023-08-03T23:39:03Z) - Improving Distortion Robustness of Self-supervised Speech Processing
Tasks with Domain Adaptation [60.26511271597065]
音声歪みは、視覚的に訓練された音声処理モデルの性能を劣化させる長年の問題である。
音声処理モデルのロバスト性を向上して、音声歪みに遭遇する際の良好な性能を得るには、時間を要する。
論文 参考訳(メタデータ) (2022-03-30T07:25:52Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - On Guiding Visual Attention with Language Specification [76.08326100891571]
注意をそらすのではなく,タスク関連機能に分類証拠を限定するためのアドバイスとして,ハイレベルな言語仕様を用いる。
この方法で空間的注意を監督することは、偏りのあるノイズのあるデータを用いた分類タスクの性能を向上させる。
論文 参考訳(メタデータ) (2022-02-17T22:40:19Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Leveraging cross-platform data to improve automated hate speech
detection [0.0]
ヘイトスピーチ検出のための既存のアプローチは、単一のソーシャルメディアプラットフォームを独立して重視している。
本稿では,異なるプラットフォームからの複数のデータセットと分類モデルを活用するヘイトスピーチを検出するための,クロスプラットフォームアプローチを提案する。
このアプローチが既存のモデルより優れていることを実証し、新しいソーシャルメディアプラットフォームからのメッセージでテストすると、優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2021-02-09T15:52:34Z) - Evaluating Factuality in Generation with Dependency-level Entailment [57.5316011554622]
本稿では,依存弧のレベルで分解するエンテーメントの新たな定式化を提案する。
このデータに基づいて訓練された依存関係弧包含モデルにより,文レベルの手法よりもパラフレーズ化や要約における現実的不整合を識別できることが示されている。
論文 参考訳(メタデータ) (2020-10-12T06:43:10Z) - Towards Hate Speech Detection at Large via Deep Generative Modeling [4.080068044420974]
ヘイトスピーチ検出はソーシャルメディアプラットフォームにおいて重要な問題である。
生成言語モデルにより生成された100万件の現実的憎悪と非憎悪のシーケンスのデータセットを提示する。
5つの公開ヘイトスピーチデータセットで一貫した、重要なパフォーマンス改善を実証する。
論文 参考訳(メタデータ) (2020-05-13T15:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。