論文の概要: TUBERAIDER: Attributing Coordinated Hate Attacks on YouTube Videos to their Source Communities
- arxiv url: http://arxiv.org/abs/2308.05247v2
- Date: Sun, 23 Jun 2024 00:48:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 05:08:33.792807
- Title: TUBERAIDER: Attributing Coordinated Hate Attacks on YouTube Videos to their Source Communities
- Title(参考訳): TUBERAIDER:YouTubeビデオにコーディネートされたヘイト・アタックをソース・コミュニティに提供する
- Authors: Mohammad Hammas Saeed, Kostantinos Papadamou, Jeremy Blackburn, Emiliano De Cristofaro, Gianluca Stringhini,
- Abstract要約: 本稿では,YouTubeビデオのヘイト攻撃を75%以上の精度で検出・帰属する属性システムであるTUBERAIDERを提案する。
ピーク検出器を使用して、YouTubeビデオのコメントアクティビティの上昇を特定し、攻撃が発生している可能性があることを知らせる。
- 参考スコア(独自算出の注目度): 22.80886948075711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Alas, coordinated hate attacks, or raids, are becoming increasingly common online. In a nutshell, these are perpetrated by a group of aggressors who organize and coordinate operations on a platform (e.g., 4chan) to target victims on another community (e.g., YouTube). In this paper, we focus on attributing raids to their source community, paving the way for moderation approaches that take the context (and potentially the motivation) of an attack into consideration. We present TUBERAIDER, an attribution system achieving over 75% accuracy in detecting and attributing coordinated hate attacks on YouTube videos. We instantiate it using links to YouTube videos shared on 4chan's /pol/ board, r/The_Donald, and 16 Incels-related subreddits. We use a peak detector to identify a rise in the comment activity of a YouTube video, which signals that an attack may be occurring. We then train a machine learning classifier based on the community language (i.e., TF-IDF scores of relevant keywords) to perform the attribution. We test TUBERAIDER in the wild and present a few case studies of actual aggression attacks identified by it to showcase its effectiveness.
- Abstract(参考訳): あいにく、コーディネート・ヘイト・アタックや襲撃は、オンライン上でますます一般的になりつつある。
簡単に言えば、これらは攻撃者の集団によって実行され、プラットフォーム(例:4chan)上の操作を組織し、他のコミュニティ(例:YouTube)の被害者をターゲットにしている。
本稿では,攻撃の文脈(および動機)を考慮に入れたモデレーションアプローチの道を開いた上で,ソースコミュニティへの襲撃の帰結に焦点をあてる。
本稿では,YouTubeビデオのヘイト攻撃を75%以上の精度で検出・帰属する属性システムであるTUBERAIDERを提案する。
4chanの/pol/ボード、r/The_Donald、および16 Incels関連のサブレディットで共有されたYouTubeビデオへのリンクを使ってインスタンス化する。
ピーク検出器を使用して、YouTubeビデオのコメントアクティビティの上昇を特定し、攻撃が発生している可能性があることを知らせる。
次に、コミュニティ言語(例えば、関連するキーワードのTF-IDFスコア)に基づいて機械学習分類器を訓練し、属性を実行する。
野生でTUBERAIDERを試験し、実際の攻撃攻撃についていくつかのケーススタディを提示し、その効果を実証した。
関連論文リスト
- Coordinated Reply Attacks in Influence Operations: Characterization and Detection [43.98568073610101]
我々はTwitter上でのインフルエンス操作の文脈において、協調応答攻撃を特徴付ける。
我々の分析によると、これらの攻撃の主なターゲットは、ジャーナリスト、ニュースメディア、州役人、政治家などの影響力のある人々である。
本稿では,2つの教師付き機械学習モデルを提案する。ひとつはツイートを分類し,それらが応答攻撃の対象であるか否かを判断し,もうひとつはターゲットとするツイートに応答するアカウントを分類し,それらが協調攻撃の一部であるかどうかを判断する。
論文 参考訳(メタデータ) (2024-10-25T02:57:08Z) - On the rise of fear speech in online social media [7.090807766284268]
恐怖のスピーチは、名前が示すように、ターゲットのコミュニティに対する恐怖を呼び起こそうとしている。
本稿では,Gab.comから収集した400K以上の恐怖音声と700K以上のヘイトスピーチ投稿の頻度を理解するための大規模研究について述べる。
論文 参考訳(メタデータ) (2023-03-18T02:46:49Z) - Hate Raids on Twitch: Echoes of the Past, New Modalities, and
Implications for Platform Governance [11.411995156252104]
2021年夏、Twitchのライブストリーミングプラットフォーム利用者は「ヘイト・レイド」の波に照らされた。
ヘイト・レイド」は、しばしばボットや自動化を使って、嫌悪なメッセージでストリーマーのチャットルームを圧倒する。
LGBTQ+と/またはブラックを自認するストリーマーは不当に標的にされており、ヘイト・レイド・メッセージは一般的に反黒人人種差別と反ユダヤ主義に根ざしていることを示す。
論文 参考訳(メタデータ) (2023-01-10T13:00:14Z) - Look, Listen, and Attack: Backdoor Attacks Against Video Action
Recognition [53.720010650445516]
有毒ラベル画像のバックドア攻撃は静的かつ動的に2つの時間的拡張が可能であることを示す。
さらに、ビデオ領域におけるこの脆弱性の深刻さを強調するために、自然なビデオバックドアを探索する。
また,ビデオ行動認識モデルに対するマルチモーダル(オービジュアル)バックドアアタックを初めて検討した。
論文 参考訳(メタデータ) (2023-01-03T07:40:28Z) - Preserving Semantics in Textual Adversarial Attacks [0.0]
敵の攻撃によって生じる敵の事例の最大70%は、意味論を保存していないため破棄されるべきである。
SPE(Semantics-Preserving-Encoder)と呼ばれる新しい完全教師付き文埋め込み手法を提案する。
本手法は, 敵攻撃における既存の文エンコーダよりも1.2倍から5.1倍優れた実攻撃成功率を達成している。
論文 参考訳(メタデータ) (2022-11-08T12:40:07Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - It's a Thin Line Between Love and Hate: Using the Echo in Modeling
Dynamics of Racist Online Communities [0.8164433158925593]
2016年初め、(((echo))という記号は、アメリカ合衆国大統領選挙の激化と共に、主流のソーシャルネットワークに普及した。
ユダヤ人の遺産をタグ付けするために、アルト右派、白人至上主義者、インターネットトロルのメンバーが使用した。
この流行するミーム、その意味、そしてその機能を追跡することは、その意味的あいまいさによって明らかになっている。
論文 参考訳(メタデータ) (2020-11-16T20:47:54Z) - MultAV: Multiplicative Adversarial Videos [71.94264837503135]
本稿では,ビデオ認識モデルに対する新たな攻撃手法であるMultAVを提案する。
MultAVは乗算によってビデオデータに摂動を課す。
実験結果から,MultAV に対する加法攻撃に対して逆向きに訓練したモデルでは,MultAV に対するロバスト性が低いことが示された。
論文 参考訳(メタデータ) (2020-09-17T04:34:39Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。