論文の概要: Hate Raids on Twitch: Echoes of the Past, New Modalities, and
Implications for Platform Governance
- arxiv url: http://arxiv.org/abs/2301.03946v2
- Date: Fri, 13 Jan 2023 01:02:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 13:33:07.259787
- Title: Hate Raids on Twitch: Echoes of the Past, New Modalities, and
Implications for Platform Governance
- Title(参考訳): twitchへのヘイトクライド:過去の反響、新しいモダリティ、プラットフォームのガバナンスへの意味
- Authors: Catherine Han, Joseph Seering, Deepak Kumar, Jeffrey T. Hancock, Zakir
Durumeric
- Abstract要約: 2021年夏、Twitchのライブストリーミングプラットフォーム利用者は「ヘイト・レイド」の波に照らされた。
ヘイト・レイド」は、しばしばボットや自動化を使って、嫌悪なメッセージでストリーマーのチャットルームを圧倒する。
LGBTQ+と/またはブラックを自認するストリーマーは不当に標的にされており、ヘイト・レイド・メッセージは一般的に反黒人人種差別と反ユダヤ主義に根ざしていることを示す。
- 参考スコア(独自算出の注目度): 11.411995156252104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the summer of 2021, users on the livestreaming platform Twitch were
targeted by a wave of "hate raids," a form of attack that overwhelms a
streamer's chatroom with hateful messages, often through the use of bots and
automation. Using a mixed-methods approach, we combine a quantitative
measurement of attacks across the platform with interviews of streamers and
third-party bot developers. We present evidence that confirms that some hate
raids were highly-targeted, hate-driven attacks, but we also observe another
mode of hate raid similar to networked harassment and specific forms of
subcultural trolling. We show that the streamers who self-identify as LGBTQ+
and/or Black were disproportionately targeted and that hate raid messages were
most commonly rooted in anti-Black racism and antisemitism. We also document
how these attacks elicited rapid community responses in both bolstering
reactive moderation and developing proactive mitigations for future attacks. We
conclude by discussing how platforms can better prepare for attacks and protect
at-risk communities while considering the division of labor between community
moderators, tool-builders, and platforms.
- Abstract(参考訳): 2021年夏には、ライブストリーミングプラットフォームのTwitchのユーザーは、ボットや自動化を使って、嫌悪なメッセージでストリーマーのチャットルームを圧倒する攻撃の「ヘイト・レイド」の波を標的にしていた。
混合手法を用いて,プラットフォーム全体でのアタックの定量的測定と,ストリーマーとサードパーティのボット開発者とのインタビューを組み合わせる。
我々は、一部のヘイトクライドが高度に標的化され、ヘイト駆動の攻撃であったことを裏付ける証拠を示す一方で、ネットワーク化されたハラスメントや特定のサブカルチャーのトロルに類似した別のヘイトレイドモードも観察する。
lgbtq+や黒人と自認するストリーマーは不釣り合いな標的であり、ヘイトクライドメッセージは反黒人人種差別や反ユダヤ主義に根ざしていた。
また、これらの攻撃がコミュニティの反応を迅速に引き起こし、反応の抑制と今後の攻撃の予防策の開発を促進させる。
我々は、コミュニティモデレーター、ツールビルダー、プラットフォーム間の労働の分断を考慮しつつ、プラットフォームが攻撃に備え、リスクの高いコミュニティを保護するのにどう役立つかを議論することで締めくくります。
関連論文リスト
- Leveraging the Context through Multi-Round Interactions for Jailbreaking Attacks [55.603893267803265]
大規模言語モデル(LLM)は、脱獄攻撃の影響を受けやすい。
脱獄攻撃は、攻撃クエリを微調整することで有害な情報を抽出することを目的としている。
我々は、コンテキストインタラクションアタックと呼ばれる新しい攻撃形式に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-14T13:45:19Z) - TUBERAIDER: Attributing Coordinated Hate Attacks on YouTube Videos to their Source Communities [22.80886948075711]
本稿では,YouTubeビデオのヘイト攻撃を75%以上の精度で検出・帰属する属性システムであるTUBERAIDERを提案する。
ピーク検出器を使用して、YouTubeビデオのコメントアクティビティの上昇を特定し、攻撃が発生している可能性があることを知らせる。
論文 参考訳(メタデータ) (2023-08-09T22:41:19Z) - Universal and Transferable Adversarial Attacks on Aligned Language
Models [118.41733208825278]
本稿では,アライメント言語モデルに反抗的な振る舞いを生じさせる,シンプルで効果的な攻撃手法を提案する。
驚いたことに、我々のアプローチによって生じる敵のプロンプトは、かなり伝達可能である。
論文 参考訳(メタデータ) (2023-07-27T17:49:12Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Hatemongers ride on echo chambers to escalate hate speech diffusion [23.714548893849393]
我々は3つの人気オンラインソーシャルネットワークで680万以上のユーザーから3200万以上の投稿を分析している。
ヘイトモンガーは、単独のヘイトフルコンテンツに比べて情報の拡散を管理する上で、より重要な役割を担っている。
論文 参考訳(メタデータ) (2023-02-05T20:30:48Z) - Spillover of Antisocial Behavior from Fringe Platforms: The Unintended
Consequences of Community Banning [0.2752817022620644]
Reddit上でのフリンジコミュニティへの参加は、禁止されたコミュニティと同様、ユーザーの毒性とサブレディットへの関与を増加させることを示す。
要するに、フリンジプラットフォームからRedditへの参加を通じて、反社会的行動が流出した証拠が見つかったのです。
論文 参考訳(メタデータ) (2022-09-20T15:48:27Z) - Comparing the Language of QAnon-related content on Parler, Gab, and
Twitter [68.8204255655161]
保守派の間で人気の「言論の自由」プラットフォームであるParlerは、2021年1月に、憎悪やQAnonなどの陰謀に関するコンテンツのモデレーションの欠如により、オフラインになった。
われわれは投稿をParlerの#QAnonというハッシュタグと比較する。
Gabはヘイト条件の#QAnon投稿が最も多く、ParlerとTwitterも同様である。
これら3つのプラットフォームにおいて、女性政治家、民主党員、ドナルド・トランプに言及する投稿は、男性政治家、共和党員、あるいは共和党員に言及する投稿よりも、より反社会的な言葉を持っている。
論文 参考訳(メタデータ) (2021-11-22T11:19:15Z) - It's a Thin Line Between Love and Hate: Using the Echo in Modeling
Dynamics of Racist Online Communities [0.8164433158925593]
2016年初め、(((echo))という記号は、アメリカ合衆国大統領選挙の激化と共に、主流のソーシャルネットワークに普及した。
ユダヤ人の遺産をタグ付けするために、アルト右派、白人至上主義者、インターネットトロルのメンバーが使用した。
この流行するミーム、その意味、そしてその機能を追跡することは、その意味的あいまいさによって明らかになっている。
論文 参考訳(メタデータ) (2020-11-16T20:47:54Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。