論文の概要: Measuring Online Hate on 4chan using Pre-trained Deep Learning Models
- arxiv url: http://arxiv.org/abs/2504.00045v1
- Date: Sun, 30 Mar 2025 22:47:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 15:43:08.43541
- Title: Measuring Online Hate on 4chan using Pre-trained Deep Learning Models
- Title(参考訳): 事前学習型ディープラーニングモデルを用いた4chanのオンラインヘイト測定
- Authors: Adrian Bermudez-Villalva, Maryam Mehrnezhad, Ehsan Toreini,
- Abstract要約: 本研究は,4chanの政治的不正確なボード(/pol/)上でのオンライン憎悪の頻度を分析し,測定することに焦点を当てる。
我々は、最先端自然言語処理(NLP)モデル、特にRoBERTaやDetoxifyのようなトランスフォーマーベースのモデルを使用します。
結果は、このデータセットの11.20%が、異なるカテゴリのヘイトを含むと認識されていることを示している。
- 参考スコア(独自算出の注目度): 4.970364068620607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online hate speech can harmfully impact individuals and groups, specifically on non-moderated platforms such as 4chan where users can post anonymous content. This work focuses on analysing and measuring the prevalence of online hate on 4chan's politically incorrect board (/pol/) using state-of-the-art Natural Language Processing (NLP) models, specifically transformer-based models such as RoBERTa and Detoxify. By leveraging these advanced models, we provide an in-depth analysis of hate speech dynamics and quantify the extent of online hate non-moderated platforms. The study advances understanding through multi-class classification of hate speech (racism, sexism, religion, etc.), while also incorporating the classification of toxic content (e.g., identity attacks and threats) and a further topic modelling analysis. The results show that 11.20% of this dataset is identified as containing hate in different categories. These evaluations show that online hate is manifested in various forms, confirming the complicated and volatile nature of detection in the wild.
- Abstract(参考訳): オンラインヘイトスピーチは個人やグループ、特に匿名コンテンツを投稿できる4chanのような非モデレートプラットフォームに悪影響を及ぼす可能性がある。
この研究は、最新の自然言語処理(NLP)モデル、特にRoBERTaやDetoxifyのようなトランスフォーマーベースのモデルを用いて、4chanの政治的に誤ったボード(/pol/)上でのオンライン憎悪の頻度を分析し、測定することに焦点を当てている。
これらの高度なモデルを活用することで、ヘイトスピーチのダイナミックスを詳細に分析し、オンラインヘイト非モデレートプラットフォームの範囲を定量化する。
この研究は、ヘイトスピーチ(人種差別、性差別、宗教など)の多クラス分類を通じて理解を深め、有害な内容(例えば、アイデンティティアタック、脅威)の分類と、さらにトピックモデリング分析を取り入れた。
結果は、このデータセットの11.20%が、異なるカテゴリのヘイトを含むと認識されていることを示している。
これらの評価は、オンラインヘイトが様々な形で現れ、野生における検出の複雑で揮発的な性質を確認していることを示している。
関連論文リスト
- Analysis and Detection of Multilingual Hate Speech Using Transformer
Based Deep Learning [7.332311991395427]
ヘイトスピーチの普及に伴い,NLPタスクとしての自動検出の需要が高まっている。
本研究では、Twitter、Facebook、WhatsApp、Instagramなどのソーシャルメディアにおけるヘイトスピーチを検出するために、トランスフォーマーベースのモデルを提案する。
金の標準データセットは、著名な研究者Zeerak Talat、Sara Tonelli、Melanie Siegel、Rezaul Karimから収集された。
ヘイトスピーチ検出のための提案されたモデルの成功率は、ベンガルデータセットの精度の高い既存のベースラインや最先端モデルよりも高く、英語では89%、ドイツ語では91%である。
論文 参考訳(メタデータ) (2024-01-19T20:40:23Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - When the Majority is Wrong: Modeling Annotator Disagreement for Subjective Tasks [45.14664901245331]
ヘイトスピーチの検出における重要な問題は、ある声明が人口集団に対して攻撃的であるかどうかを決定することである。
我々は、潜在的に攻撃的なテキストに基づいて、個々のアノテータ評価を予測するモデルを構築した。
その結果、アノテータの評価は、その人口統計情報とオンラインコンテンツに関する意見を用いて予測できることがわかった。
論文 参考訳(メタデータ) (2023-05-11T07:55:20Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - A Comparison of Online Hate on Reddit and 4chan: A Case Study of the
2020 US Election [2.685668802278155]
我々は、2020年の米大統領選挙に関するRedditと4chanのヘイトなコンテンツを分析するために、さまざまな自然言語処理(NLP)技術を活用しています。
以上の結果から,コンテンツと投稿活動がプラットフォームによってどのように異なるかが示唆された。
我々は、オンライン憎悪のプラットフォーム固有の行動と、異なるプラットフォームが特定の目的を達成する方法について、最初の比較を行った。
論文 参考訳(メタデータ) (2022-02-02T21:48:56Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Unsupervised Domain Adaptation for Hate Speech Detection Using a Data
Augmentation Approach [6.497816402045099]
ヘイトスピーチ検出のためのラベル付きデータを拡張するための教師なし領域適応手法を提案する。
精度/リコール曲線の領域を最大42%改善し,278%改善した。
論文 参考訳(メタデータ) (2021-07-27T15:01:22Z) - Towards generalisable hate speech detection: a review on obstacles and
solutions [6.531659195805749]
本稿では,既存のヘイトスピーチ検出モデルの一般化について概説する。
主な障害に対処する既存の試みを要約し、ヘイトスピーチ検出における一般化を改善するための今後の研究の方向性を提案する。
論文 参考訳(メタデータ) (2021-02-17T17:27:48Z) - Leveraging cross-platform data to improve automated hate speech
detection [0.0]
ヘイトスピーチ検出のための既存のアプローチは、単一のソーシャルメディアプラットフォームを独立して重視している。
本稿では,異なるプラットフォームからの複数のデータセットと分類モデルを活用するヘイトスピーチを検出するための,クロスプラットフォームアプローチを提案する。
このアプローチが既存のモデルより優れていることを実証し、新しいソーシャルメディアプラットフォームからのメッセージでテストすると、優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2021-02-09T15:52:34Z) - Trawling for Trolling: A Dataset [56.1778095945542]
攻撃的コンテンツのサブカテゴリとしてトロリングをモデル化するデータセットを提案する。
データセットには12,490のサンプルがあり、5つのクラスに分かれている。
論文 参考訳(メタデータ) (2020-08-02T17:23:55Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。