論文の概要: The Peripatetic Hater: Predicting Movement Among Hate Subreddits
- arxiv url: http://arxiv.org/abs/2405.17410v1
- Date: Mon, 27 May 2024 17:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 14:04:26.431057
- Title: The Peripatetic Hater: Predicting Movement Among Hate Subreddits
- Title(参考訳): ペラペタペタペタペタの憎悪 : ヘイト・サブレディットの行動予測
- Authors: Daniel Hickey, Daniel M. T. Fessler, Kristina Lerman, Keith Burghardt,
- Abstract要約: 我々は、ヘイト・サブレディットを分類するために新しい方法を使用し、それらが分離するアイデンティティを分類する。
ユーザーの最初のヘイトサブレディットでアクティブになることは、異なるカテゴリーのヘイトサブレディットに追加のヘイトサブレディットでアクティブになる可能性があることを示す。
また、ヘイトサブレディットの追加に参加するユーザー、特に異なるカテゴリーのユーザーが、ヘイトサブレディット全体でより活発になることもわかりました。
- 参考スコア(独自算出の注目度): 1.7949335303516192
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many online hate groups exist to disparage others based on race, gender identity, sex, or other characteristics. The accessibility of these communities allows users to join multiple types of hate groups (e.g., a racist community and misogynistic community), which calls into question whether these peripatetic users could be further radicalized compared to users that stay in one type of hate group. However, little is known about the dynamics of joining multiple types of hate groups, nor the effect of these groups on peripatetic users. In this paper, we develop a new method to classify hate subreddits, and the identities they disparage, which we use to better understand how users become peripatetic (join different types of hate subreddits). The hate classification technique utilizes human-validated LLMs to extract the protected identities attacked, if any, across 168 subreddits. We then cluster identity-attacking subreddits to discover three broad categories of hate: racist, anti-LGBTQ, and misogynistic. We show that becoming active in a user's first hate subreddit can cause them to become active in additional hate subreddits of a different category. We also find that users who join additional hate subreddits, especially of a different category, become more active in hate subreddits as a whole and develop a wider hate group lexicon. We are therefore motivated to train an AI model that we find usefully predicts the hate categories users will become active in based on post text read and written. The accuracy of this model may be partly driven by peripatetic users often using the language of hate subreddits they eventually join. Overall, these results highlight the unique risks associated with hate communities on a social media platform, as discussion of alternative targets of hate may lead users to target more protected identities.
- Abstract(参考訳): 多くのオンラインヘイトグループは、人種、ジェンダーのアイデンティティ、セックス、その他の特徴に基づいて、他人を分離するために存在している。
これらのコミュニティのアクセシビリティにより、ユーザは複数のタイプのヘイトグループ(人種差別的なコミュニティや偽善的なコミュニティなど)に参加できる。
しかし、複数のタイプのヘイトグループに参加することのダイナミクスや、これらのグループが周産期ユーザーに与える影響についてはほとんど分かっていない。
本稿では,ヘイトサブレッディットを分類する新しい手法と,それらが分離するアイデンティティを考案し,ユーザが近視的になる方法(異なるタイプのヘイトサブレッディットに随伴する)をよりよく理解するために利用する。
ヘイト分類技術は、人身認証されたLSMを使用して、168個のサブレディットから攻撃された保護されたアイデンティティを抽出する。
次に、アイデンティティ攻撃のサブレディットをクラスタ化して、人種差別、反LGBTQ、偽造という3つの幅広い憎悪のカテゴリを見つけます。
ユーザーの最初のヘイトサブレディットでアクティブになることは、異なるカテゴリーのヘイトサブレディットに追加のヘイトサブレディットでアクティブになる可能性があることを示す。
また、特に異なるカテゴリーのヘイトグループに加入するユーザーは、ヘイトグループ全体においてより活発になり、より広いヘイトグループレキシコンを開発する。
ですから私たちは,ポストテキストの読み書きに基づいて,ヘイトカテゴリがアクティブになることを予測できるような,AIモデルをトレーニングする動機を持っています。
このモデルの正確さは、しばしば彼らが最終的に参加する憎しみのサブレディットの言語を使用して、ペパテティックなユーザーによって部分的に駆動される可能性がある。
これらの結果は、ソーシャルメディアプラットフォーム上のヘイトコミュニティにまつわるユニークなリスクを浮き彫りにしている。
関連論文リスト
- Mapping the Spiral of Silence: Surveying Unspoken Opinions in Online Communities [60.695668356379684]
コミュニティに公に投稿された視点と,コミュニティメンバの私的な視点との相違について検討した。
少数派で自覚する参加者の72.6%が沈黙を保ち、自分の見解を投稿する確率はわずか半分である。
これらの結果は、私たちがオンラインで見る意見が、彼らが表現すべき人口にどれほど遠く及ばないかを強調している。
論文 参考訳(メタデータ) (2025-02-02T23:06:05Z) - Analyzing User Characteristics of Hate Speech Spreaders on Social Media [20.57872238271025]
ヘイトスピーチにおけるユーザ特性の役割を分析する。
社会的影響の少ないユーザーは、ヘイトスピーチをシェアする傾向にある。
政治的反トランプと反右派憎悪は、より大きな社会的影響力を持つユーザーによって再創造される。
論文 参考訳(メタデータ) (2023-10-24T12:17:48Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Hatemongers ride on echo chambers to escalate hate speech diffusion [23.714548893849393]
我々は3つの人気オンラインソーシャルネットワークで680万以上のユーザーから3200万以上の投稿を分析している。
ヘイトモンガーは、単独のヘイトフルコンテンツに比べて情報の拡散を管理する上で、より重要な役割を担っている。
論文 参考訳(メタデータ) (2023-02-05T20:30:48Z) - Non-Polar Opposites: Analyzing the Relationship Between Echo Chambers
and Hostile Intergroup Interactions on Reddit [66.09950457847242]
Redditユーザーの5.97万人の活動と、13年間に投稿された421万人のコメントについて調査した。
我々は、ユーザーが互いに有害であるかどうかに基づいて、政治コミュニティ間の関係のタイプロジを作成する。
論文 参考訳(メタデータ) (2022-11-25T22:17:07Z) - Spillover of Antisocial Behavior from Fringe Platforms: The Unintended
Consequences of Community Banning [0.2752817022620644]
Reddit上でのフリンジコミュニティへの参加は、禁止されたコミュニティと同様、ユーザーの毒性とサブレディットへの関与を増加させることを示す。
要するに、フリンジプラットフォームからRedditへの参加を通じて、反社会的行動が流出した証拠が見つかったのです。
論文 参考訳(メタデータ) (2022-09-20T15:48:27Z) - Quantifying How Hateful Communities Radicalize Online Users [2.378428291297535]
我々は、他のソーシャルネットワークに伝播するヘイトスピーチの観点から、フロンティアヘイトフルなコミュニティに参加することの影響を計測する。
Redditのデータを使って、1種類のエコーチャンバーに参加する効果を評価する。
有害な言論はコミュニティに留まらないことを示す。
論文 参考訳(メタデータ) (2022-09-19T01:13:29Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - When the Echo Chamber Shatters: Examining the Use of Community-Specific
Language Post-Subreddit Ban [4.884793296603604]
コミュニティレベルの禁止は、オンラインハラスメントと有害なスピーチを可能にするグループに対する共通のツールである。
本稿では,グループ内言語を識別し,Reddit上でのユーザ活動を追跡する,柔軟な教師なし手法を提案する。
上位のユーザは全体のアクティブ度が低くなる傾向にあり、ランダムなユーザはアクティビティを低下させることなく、グループ内での言語の使用を少なくする傾向があった。
ダークユーモアのコミュニティのユーザーは禁止によってほとんど影響を受けなかったが、白人至上主義とファシズムを中心に組織されたコミュニティのユーザーは最も影響を受けていた。
論文 参考訳(メタデータ) (2021-06-30T16:59:46Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。