論文の概要: Hate speech detection using static BERT embeddings
- arxiv url: http://arxiv.org/abs/2106.15537v1
- Date: Tue, 29 Jun 2021 16:17:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 18:14:13.955968
- Title: Hate speech detection using static BERT embeddings
- Title(参考訳): 静的BERT埋め込みを用いたヘイトスピーチ検出
- Authors: Gaurav Rajput, Narinder Singh punn, Sanjay Kumar Sonbhadra, Sonali
Agarwal
- Abstract要約: ヘイトスピーチは、特定のグループの特徴をターゲットとした虐待的スピーチを表現する主要な関心事として浮上している。
本稿では,単語埋め込みの置き換えや統合によるヘイトスピーチ検出の性能解析を行う。
細調整されたBERTと比較して、大幅に改善された指標は特異性である。
- 参考スコア(独自算出の注目度): 0.9176056742068814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With increasing popularity of social media platforms hate speech is emerging
as a major concern, where it expresses abusive speech that targets specific
group characteristics, such as gender, religion or ethnicity to spread
violence. Earlier people use to verbally deliver hate speeches but now with the
expansion of technology, some people are deliberately using social media
platforms to spread hate by posting, sharing, commenting, etc. Whether it is
Christchurch mosque shootings or hate crimes against Asians in west, it has
been observed that the convicts are very much influenced from hate text present
online. Even though AI systems are in place to flag such text but one of the
key challenges is to reduce the false positive rate (marking non hate as hate),
so that these systems can detect hate speech without undermining the freedom of
expression. In this paper, we use ETHOS hate speech detection dataset and
analyze the performance of hate speech detection classifier by replacing or
integrating the word embeddings (fastText (FT), GloVe (GV) or FT + GV) with
static BERT embeddings (BE). With the extensive experimental trails it is
observed that the neural network performed better with static BE compared to
using FT, GV or FT + GV as word embeddings. In comparison to fine-tuned BERT,
one metric that significantly improved is specificity.
- Abstract(参考訳): ソーシャルメディアプラットフォームの人気が高まっているなかで、暴力を広めるために性別、宗教、民族といった特定のグループの特徴をターゲットとした虐待的なスピーチを表現している。
以前の人々は口頭でヘイトスピーチを配信していたが、今やテクノロジーが拡大し、ソーシャルメディアプラットフォームを使ってヘイトスピーチを投稿、共有、コメントなどで広めている。
クライストチャーチ・モスクの銃撃事件であろうと、西側のアジア人に対する憎悪犯罪であろうと、受刑者はオンラインでのヘイト・テキストの影響を強く受けていることが観察されている。
このようなテキストにフラグを付けるAIシステムは存在するが、重要な課題の1つは、偽陽性率(憎悪を嫌悪とみなす)を下げることであり、これらのシステムは表現の自由を損なうことなくヘイトスピーチを検出することができる。
本稿では,ETHOS のヘイトスピーチ検出データセットを用いて,単語埋め込み (fastText (FT), GloVe (GV), FT + GV) を静的BERT埋め込み (BE) に置き換えることにより,ヘイトスピーチ検出分類器の性能を解析する。
実験により, 単語埋め込みとしてFT, GV, FT + GVを用いた場合と比較して, ニューラルネットワークは静的BEで良好な性能を示した。
細調整されたBERTと比較して、大幅に改善された指標は特異性である。
関連論文リスト
- Silent Signals, Loud Impact: LLMs for Word-Sense Disambiguation of Coded Dog Whistles [47.61526125774749]
犬の笛は、特定の聴衆に二次的な意味を持ち、しばしば人種的・社会経済的差別のために武器化された符号化通信の一種である。
本稿では,Large Language Models (LLMs) を用いた標準音声からの犬笛の単語センスの曖昧化手法を提案する。
我々はこの手法を利用して、フォーマルで非公式なコミュニケーションに使用される犬の口笛の16,550個の高信頼符号化されたサンプルのデータセットを作成する。
論文 参考訳(メタデータ) (2024-06-10T23:09:19Z) - Exploiting Hatred by Targets for Hate Speech Detection on Vietnamese Social Media Texts [0.0]
まず、ベトナムのソーシャルメディアテキストを対象としたヘイトスピーチ検出データセットViTHSDを紹介する。
データセットには10Kコメントが含まれており、各コメントには、クリーン、攻撃、ヘイトという3つのレベルがある特定のターゲットにラベルが付けられている。
データセットから得られたアノテーション間の合意は、コーエンのカッパ指数によって0.45であり、中程度のレベルとして示される。
論文 参考訳(メタデータ) (2024-04-30T04:16:55Z) - An Investigation of Large Language Models for Real-World Hate Speech
Detection [46.15140831710683]
既存の手法の大きな制限は、ヘイトスピーチ検出がコンテキストの問題である点である。
近年,大規模言語モデル (LLM) はいくつかの自然言語処理において最先端の性能を示した。
本研究は, ヘイトスピーチの文脈を効果的に把握する上で, 巧妙な推論プロンプトが有効であることを明らかにする。
論文 参考訳(メタデータ) (2024-01-07T00:39:33Z) - Hate Speech Targets Detection in Parler using BERT [0.0]
本稿では,ヘイトスピーチとそのターゲットを検知し,パラーヘイトターゲットの分布を生成するパイプラインを提案する。
パイプラインは2つのモデルで構成されており、1つはヘイトスピーチ検出用、もう1つはターゲット分類用である。
論文 参考訳(メタデータ) (2023-04-03T17:49:04Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Hate Speech Classification Using SVM and Naive BAYES [0.0]
多くの国は、オンラインヘイトスピーチを避けるための法律を開発した。
しかし、オンラインコンテンツが成長を続けるにつれ、ヘイトスピーチが広まる。
ヘイトスピーチを検出して削除するために、オンラインユーザーコンテンツを自動的に処理することが重要である。
論文 参考訳(メタデータ) (2022-03-21T17:15:38Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Leveraging Transformers for Hate Speech Detection in Conversational
Code-Mixed Tweets [36.29939722039909]
本稿では,HASOC 2021サブタスク2のためのMIDAS-IIITDチームによって提案されたシステムについて述べる。
これは、Hindi- Englishのコードミキシングされた会話からヘイトスピーチを検出することに焦点を当てた最初の共有タスクの1つである。
Indic-BERT,XLM-RoBERTa,Multilingual BERTのハード投票アンサンブルがマクロF1スコア0.7253を達成した。
論文 参考訳(メタデータ) (2021-12-18T19:27:33Z) - Detection of Hate Speech using BERT and Hate Speech Word Embedding with
Deep Model [0.5801044612920815]
本稿では,双方向LSTMに基づくディープモデルにドメイン固有の単語を埋め込み,ヘイトスピーチを自動的に検出・分類する可能性について検討する。
実験の結果、Bidirectional LSTMベースのディープモデルによるドメイン固有単語の埋め込みは93%のf1スコアを獲得し、BERTは96%のf1スコアを達成した。
論文 参考訳(メタデータ) (2021-11-02T11:42:54Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Demoting Racial Bias in Hate Speech Detection [39.376886409461775]
現在のヘイトスピーチデータセットには、アノテーターの毒性に対する認識とアフリカ系アメリカ人英語(AAE)の信号との間に相関がある。
本稿では,このバイアスを軽減するために,敵対的訓練を用いて,有害な文章の検出を学習するヘイトスピーチ分類器を導入する。
ヘイトスピーチデータセットとAEデータセットの実験結果から,本手法はヘイトスピーチ分類の性能を最小限に抑えつつ,AAEテキストの偽陽性率を大幅に低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2020-05-25T17:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。