論文の概要: Detecting Online Hate Speech: Approaches Using Weak Supervision and
Network Embedding Models
- arxiv url: http://arxiv.org/abs/2007.12724v1
- Date: Fri, 24 Jul 2020 18:13:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 07:17:17.859647
- Title: Detecting Online Hate Speech: Approaches Using Weak Supervision and
Network Embedding Models
- Title(参考訳): オンラインヘイトスピーチの検出:弱い監督とネットワーク埋め込みモデルを用いたアプローチ
- Authors: Michael Ridenhour, Arunkumar Bagavathi, Elaheh Raisi, Siddharth
Krishnan
- Abstract要約: 本研究では,ヘイトフルユーザを定量的に発見する弱監督型深層学習モデルを提案する。
我々は、19.2Mの投稿において、我々のモデルを評価し、我々の弱い監督モデルは、間接的に憎悪的な相互作用を識別するベースラインモデルよりも優れていることを示す。
また,Gabにおける2種類のユーザインタラクション(引用と応答)と,弱監督モデルからのインタラクションスコアをエッジウェイトとして分析し,ヘイトフルユーザを予測する。
- 参考スコア(独自算出の注目度): 2.3322477552758234
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The ubiquity of social media has transformed online interactions among
individuals. Despite positive effects, it has also allowed anti-social elements
to unite in alternative social media environments (eg. Gab.com) like never
before. Detecting such hateful speech using automated techniques can allow
social media platforms to moderate their content and prevent nefarious
activities like hate speech propagation. In this work, we propose a weak
supervision deep learning model that - (i) quantitatively uncover hateful users
and (ii) present a novel qualitative analysis to uncover indirect hateful
conversations. This model scores content on the interaction level, rather than
the post or user level, and allows for characterization of users who most
frequently participate in hateful conversations. We evaluate our model on 19.2M
posts and show that our weak supervision model outperforms the baseline models
in identifying indirect hateful interactions. We also analyze a multilayer
network, constructed from two types of user interactions in Gab(quote and
reply) and interaction scores from the weak supervision model as edge weights,
to predict hateful users. We utilize the multilayer network embedding methods
to generate features for the prediction task and we show that considering user
context from multiple networks help achieving better predictions of hateful
users in Gab. We receive up to 7% performance gain compared to single layer or
homogeneous network embedding models.
- Abstract(参考訳): ソーシャルメディアのユビキタス性は、個人間のオンラインインタラクションを変革した。
ポジティブな効果はあるものの、かつてないほどソーシャルな要素を他のソーシャルメディア環境(gab.comなど)にまとめることも可能にしている。
このような憎しみのあるスピーチを自動化技術で検出することで、ソーシャルメディアプラットフォームはコンテンツを中和し、ヘイトスピーチの伝播のような悪質な行為を防ぐことができる。
本研究では,弱監督型深層学習モデルを提案する。
(i)憎しみのある利用者を定量的に把握し、
(ii)間接的な憎悪的な会話を明らかにするために,新しい質的分析を行う。
このモデルは、ポストやユーザーレベルではなく、インタラクションレベルにおけるコンテンツをスコアし、憎しみのある会話に頻繁に参加するユーザの特徴づけを可能にする。
19.2mの投稿でモデルを評価し,間接的ヘイトフルなインタラクションを識別する上でのベースラインモデルよりも弱い監督モデルの方が優れていることを示す。
また,gab(quote and reply)における2種類のユーザインタラクションと,エッジウェイトとしての弱い監督モデルによるインタラクションスコアから構築した多層ネットワークを分析し,ヘイトフルユーザを予測する。
本稿では,多層ネットワーク埋め込み手法を用いて予測タスクの特徴を生成し,複数のネットワークからのユーザコンテキストを考慮すれば,gabにおけるヘイトフルユーザの予測精度が向上することを示す。
単一層や均一ネットワーク埋め込みモデルと比較して最大7%の性能向上が得られます。
関連論文リスト
- AggregHate: An Efficient Aggregative Approach for the Detection of Hatemongers on Social Platforms [4.649475179575046]
ヘイト・モンガーの検出には,ヘイトフルテキストやユーザ・アクティビティ,ユーザ・ネットワークを考慮し,マルチモーダル・アグリゲーティブ・アプローチを検討する。
本手法は, コーデックメッセージの分類, ドッグホイストリング, 人種的ガスライティングの改善, 介入対策の通知に有効である。
論文 参考訳(メタデータ) (2024-09-22T14:29:49Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - CRUSH: Contextually Regularized and User anchored Self-supervised Hate
speech Detection [6.759148939470331]
CRUSHは,ユーザが選択した自己スーパービジョンと文脈正規化を用いたヘイトスピーチ検出のためのフレームワークである。
提案手法は,2種類のタスクと複数のポピュラーなソーシャルメディアデータセットに対して,過去のアプローチよりも1~12%向上する。
論文 参考訳(メタデータ) (2022-04-13T13:51:51Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Leveraging cross-platform data to improve automated hate speech
detection [0.0]
ヘイトスピーチ検出のための既存のアプローチは、単一のソーシャルメディアプラットフォームを独立して重視している。
本稿では,異なるプラットフォームからの複数のデータセットと分類モデルを活用するヘイトスピーチを検出するための,クロスプラットフォームアプローチを提案する。
このアプローチが既存のモデルより優れていることを実証し、新しいソーシャルメディアプラットフォームからのメッセージでテストすると、優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2021-02-09T15:52:34Z) - An Online Multilingual Hate speech Recognition System [13.87667165678441]
6つのデータセットを1つの同質なデータセットに組み合わせて分析し、3つのクラスに分類します。
ほぼリアルタイムで有効なメトリックでページを識別し、スコア付けするツールを作成し、フィードバックでモデルを再トレーニングします。
英語とヒンディー語という2つの言語モデル上での多言語モデルの競合性能を証明し、ほとんどの単言語モデルに匹敵するあるいは優れた性能をもたらす。
論文 参考訳(メタデータ) (2020-11-23T16:33:48Z) - Transfer Learning for Hate Speech Detection in Social Media [14.759208309842178]
本稿では、2つの独立したデータセットを協調的に活用するために転送学習手法を用いる。
我々は、構築されたヘイトスピーチ表現の解釈可能な2次元可視化ツールを構築します。
この共同表現は,限られた監督範囲の場合にのみ予測性能が向上することを示す。
論文 参考訳(メタデータ) (2019-06-10T08:00:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。