論文の概要: Bridging the gap in online hate speech detection: a comparative analysis of BERT and traditional models for homophobic content identification on X/Twitter
- arxiv url: http://arxiv.org/abs/2405.09221v1
- Date: Wed, 15 May 2024 10:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-16 13:46:20.102863
- Title: Bridging the gap in online hate speech detection: a comparative analysis of BERT and traditional models for homophobic content identification on X/Twitter
- Title(参考訳): オンラインヘイトスピーチ検出におけるギャップを埋める: X/Twitter上での同性愛的コンテンツ識別のためのBERTと伝統的なモデルの比較分析
- Authors: Josh McGiff, Nikola S. Nikolov,
- Abstract要約: 我々は、X/Twitter上のホモフォビックコンテンツを識別するためのニュアンスなアプローチを開発した。
この研究は、検出モデルにおけるホモフォビアの持続的低表現のために重要である。
我々の知るホモフォビア検出のための、最大のオープンソースのラベル付き英語データセットをリリースすることによって、オンラインの安全性と傾きを高めることを目指している。
- 参考スコア(独自算出の注目度): 0.7366405857677227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our study addresses a significant gap in online hate speech detection research by focusing on homophobia, an area often neglected in sentiment analysis research. Utilising advanced sentiment analysis models, particularly BERT, and traditional machine learning methods, we developed a nuanced approach to identify homophobic content on X/Twitter. This research is pivotal due to the persistent underrepresentation of homophobia in detection models. Our findings reveal that while BERT outperforms traditional methods, the choice of validation technique can impact model performance. This underscores the importance of contextual understanding in detecting nuanced hate speech. By releasing the largest open-source labelled English dataset for homophobia detection known to us, an analysis of various models' performance and our strongest BERT-based model, we aim to enhance online safety and inclusivity. Future work will extend to broader LGBTQIA+ hate speech detection, addressing the challenges of sourcing diverse datasets. Through this endeavour, we contribute to the larger effort against online hate, advocating for a more inclusive digital landscape. Our study not only offers insights into the effective detection of homophobic content by improving on previous research results, but it also lays groundwork for future advancements in hate speech analysis.
- Abstract(参考訳): 本研究は、感情分析研究でしばしば無視されるホモフォビアに焦点を当てたオンラインヘイトスピーチ検出研究において、大きなギャップに対処するものである。
我々は、高度な感情分析モデル、特にBERTと従来の機械学習手法を利用して、X/Twitter上のホモフォビックコンテンツを識別するニュアンスなアプローチを開発した。
この研究は、検出モデルにおけるホモフォビアの持続的低表現のために重要である。
その結果,BERTは従来の手法よりも優れているが,検証手法の選択はモデルの性能に影響を及ぼすことがわかった。
このことは、ニュアンスヘイトスピーチの検出における文脈的理解の重要性を浮き彫りにする。
我々の知るホモフォビア検出のための最大のオープンソースラベル付き英語データセット、様々なモデルの性能分析とBERTベースの最強モデルを提供することで、オンラインの安全性と傾きを高めることを目指している。
今後の取り組みはLGBTQIA+のヘイトスピーチ検出にまで拡張され、多様なデータセットのソーシングの課題に対処する。
この取り組みを通じて、私たちは、より包括的なデジタルランドスケープを提唱するオンライン憎悪に対する大きな取り組みに貢献します。
本研究は, 過去の研究結果を改善することで, ホモフォビックコンテンツの有効検出に関する知見を提供するだけでなく, ヘイトスピーチ分析における今後の進歩の基盤となるものでもある。
関連論文リスト
- QueerBench: Quantifying Discrimination in Language Models Toward Queer Identities [4.82206141686275]
我々は、LGBTQIA+の個人に関する英語大言語モデルによって生成された文の完成によって引き起こされる潜在的害を評価する。
この分析は、大きな言語モデルはLGBTQIA+コミュニティ内の個人に対してより頻繁に差別的行動を示す傾向があることを示している。
論文 参考訳(メタデータ) (2024-06-18T08:40:29Z) - A Group-Specific Approach to NLP for Hate Speech Detection [2.538209532048867]
オンラインヘイトスピーチ検出のためのグループ固有のNLPアプローチを提案する。
我々は、保護されたグループに対する差別に関する歴史的データを分析し、そのグループに対するヘイトスピーチのスパイクを予測する。
我々は,NLPによる反ユダヤ的ヘイトスピーチの検出を事例として,この手法を実証する。
論文 参考訳(メタデータ) (2023-04-21T19:08:49Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Detecting Harmful Online Conversational Content towards LGBTQIA+
Individuals [30.03410762695714]
この研究は現実世界のデータセットを導入し、有害なオンライン会話コンテンツの研究と理解を可能にします。
2つのベースライン機械学習モデルと、事前訓練された3つの大規模言語モデルを実装した。
以上の結果から,オンライン対LGBTQIA+会話コンテンツ検出タスクにおいて,大規模言語モデルが非常に有望な性能が得られることが確認された。
論文 参考訳(メタデータ) (2022-06-15T20:14:02Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Latent Hatred: A Benchmark for Understanding Implicit Hate Speech [22.420275418616242]
この研究は、暗黙のヘイトスピーチの理論的に正当化された分類法と、各メッセージにきめ細かいラベルを付けたベンチマークコーパスを導入している。
本稿では、同時代のベースラインを用いて、暗黙のヘイトスピーチを検出し、説明するためにデータセットを体系的に分析する。
論文 参考訳(メタデータ) (2021-09-11T16:52:56Z) - DeepHate: Hate Speech Detection via Multi-Faceted Text Representations [8.192671048046687]
DeepHateは、単語埋め込み、感情、トピック情報などの多面的なテキスト表現を組み合わせた、新しいディープラーニングモデルです。
大規模な実験を行い、3つの大規模公開現実世界のデータセットでDeepHateを評価します。
論文 参考訳(メタデータ) (2021-03-14T16:11:30Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Sentiment Analysis Based on Deep Learning: A Comparative Study [69.09570726777817]
世論の研究は我々に貴重な情報を提供することができる。
感情分析の効率性と正確性は、自然言語処理で直面する課題によって妨げられている。
本稿では、感情分析の問題を解決するためにディープラーニングを用いた最新の研究をレビューする。
論文 参考訳(メタデータ) (2020-06-05T16:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。