論文の概要: Hate Speech Classification Using SVM and Naive BAYES
- arxiv url: http://arxiv.org/abs/2204.07057v1
- Date: Mon, 21 Mar 2022 17:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-17 10:11:07.549833
- Title: Hate Speech Classification Using SVM and Naive BAYES
- Title(参考訳): SVMとNaive BAYESを用いたヘイトスピーチ分類
- Authors: D.C Asogwa, C.I Chukwuneke, C.C Ngene, G.N Anigbogu
- Abstract要約: 多くの国は、オンラインヘイトスピーチを避けるための法律を開発した。
しかし、オンラインコンテンツが成長を続けるにつれ、ヘイトスピーチが広まる。
ヘイトスピーチを検出して削除するために、オンラインユーザーコンテンツを自動的に処理することが重要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The spread of hatred that was formerly limited to verbal communications has
rapidly moved over the Internet. Social media and community forums that allow
people to discuss and express their opinions are becoming platforms for the
spreading of hate messages. Many countries have developed laws to avoid online
hate speech. They hold the companies that run the social media responsible for
their failure to eliminate hate speech. But as online content continues to
grow, so does the spread of hate speech However, manual analysis of hate speech
on online platforms is infeasible due to the huge amount of data as it is
expensive and time consuming. Thus, it is important to automatically process
the online user contents to detect and remove hate speech from online media.
Many recent approaches suffer from interpretability problem which means that it
can be difficult to understand why the systems make the decisions they do.
Through this work, some solutions for the problem of automatic detection of
hate messages were proposed using Support Vector Machine (SVM) and Na\"ive
Bayes algorithms. This achieved near state-of-the-art performance while being
simpler and producing more easily interpretable decisions than other methods.
Empirical evaluation of this technique has resulted in a classification
accuracy of approximately 99% and 50% for SVM and NB respectively over the test
set.
Keywords: classification; hate speech; feature extraction, algorithm,
supervised learning
- Abstract(参考訳): かつては口頭でのコミュニケーションに限られていた憎しみの広がりは、インターネット上で急速に広まりつつある。
人々が意見を話し、表現できるソーシャルメディアとコミュニティフォーラムは、ヘイトメッセージの拡散のプラットフォームになりつつある。
多くの国がオンラインヘイトスピーチを避けるための法律を制定した。
彼らはヘイトスピーチの排除に失敗したソーシャルメディアを運営している会社を保有している。
しかし、オンラインコンテンツが成長を続けるにつれ、ヘイトスピーチの普及も相まって、オンラインプラットフォーム上でのヘイトスピーチの手動分析は、高価で時間のかかる膨大なデータのために実現不可能である。
したがって、オンラインユーザのコンテンツを自動的に処理し、オンラインメディアからヘイトスピーチを検出し削除することが重要である。
最近の多くのアプローチは解釈可能性の問題に苦しんでおり、なぜシステムが決定を下すのかを理解するのが困難である。
本研究では,SVM(Support Vector Machine)とNa\\"ive Bayesアルゴリズムを用いて,ヘイトメッセージの自動検出問題の解法を提案する。
これにより、最先端に近いパフォーマンスを実現し、他の方法よりも簡単に解釈可能な決定を生成できる。
この手法の実証的評価により、svmとnbの分類精度は、それぞれ99%と50%であった。
キーワード:分類、ヘイトスピーチ、特徴抽出、アルゴリズム、教師付き学習
関連論文リスト
- NLP Systems That Can't Tell Use from Mention Censor Counterspeech, but Teaching the Distinction Helps [43.40965978436158]
問題のある内容に反論する対訳は、しばしば有害な言語に言及するが、それ自体は有害ではない。
最近の言語モデルでさえ、言及と使用の区別に失敗していることを示す。
この失敗は、誤報とヘイトスピーチ検出という2つの重要な下流タスクに伝播する。
論文 参考訳(メタデータ) (2024-04-02T05:36:41Z) - Towards Interpretable Hate Speech Detection using Large Language Model-extracted Rationales [15.458557611029518]
ソーシャルメディアプラットフォームは、ユーザーが対人的な議論を行い、意見を述べるための重要な場である。
ヘイトスピーチのインスタンスを自動的に識別し、フラグを付ける必要がある。
本稿では,現在最先端の大規模言語モデル (LLM) を用いて,入力テキストから有理形の特徴を抽出することを提案する。
論文 参考訳(メタデータ) (2024-03-19T03:22:35Z) - An Investigation of Large Language Models for Real-World Hate Speech
Detection [46.15140831710683]
既存の手法の大きな制限は、ヘイトスピーチ検出がコンテキストの問題である点である。
近年,大規模言語モデル (LLM) はいくつかの自然言語処理において最先端の性能を示した。
本研究は, ヘイトスピーチの文脈を効果的に把握する上で, 巧妙な推論プロンプトが有効であることを明らかにする。
論文 参考訳(メタデータ) (2024-01-07T00:39:33Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Assessing the impact of contextual information in hate speech detection [0.48369513656026514]
我々は,Twitter上のメディアからのニュース投稿に対するユーザの反応に基づいた,文脈的ヘイトスピーチ検出のための新しいコーパスを提供する。
このコーパスはリオプラテンセ方言のスペイン語で収集され、新型コロナウイルスのパンデミックに関連するヘイトスピーチに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-02T09:04:47Z) - A Review of Challenges in Machine Learning based Automated Hate Speech
Detection [0.966840768820136]
我々は、ヘイトスピーチ識別のための機械学習やディープラーニングベースのソリューションが直面する課題に焦点を当てている。
トップレベルでは、データレベル、モデルレベル、人間レベルの課題を区別します。
この調査は、ヘイトスピーチ検出の分野で、研究者がより効率的にソリューションを設計するのに役立つだろう。
論文 参考訳(メタデータ) (2022-09-12T14:56:14Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Unsupervised Domain Adaptation for Hate Speech Detection Using a Data
Augmentation Approach [6.497816402045099]
ヘイトスピーチ検出のためのラベル付きデータを拡張するための教師なし領域適応手法を提案する。
精度/リコール曲線の領域を最大42%改善し,278%改善した。
論文 参考訳(メタデータ) (2021-07-27T15:01:22Z) - Hate speech detection using static BERT embeddings [0.9176056742068814]
ヘイトスピーチは、特定のグループの特徴をターゲットとした虐待的スピーチを表現する主要な関心事として浮上している。
本稿では,単語埋め込みの置き換えや統合によるヘイトスピーチ検出の性能解析を行う。
細調整されたBERTと比較して、大幅に改善された指標は特異性である。
論文 参考訳(メタデータ) (2021-06-29T16:17:10Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。