論文の概要: ExtremeBB: A Database for Large-Scale Research into Online Hate,
Harassment, the Manosphere and Extremism
- arxiv url: http://arxiv.org/abs/2111.04479v2
- Date: Sun, 11 Jun 2023 17:27:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 03:28:39.437074
- Title: ExtremeBB: A Database for Large-Scale Research into Online Hate,
Harassment, the Manosphere and Extremism
- Title(参考訳): ExtremeBB: オンラインHate、Harassment、Manosphere、Extremismに関する大規模研究のためのデータベース
- Authors: Anh V. Vu, Lydia Wilson, Yi Ting Chua, Ilia Shumailov, Ross Anderson
- Abstract要約: エクストリームBB(ExtremeBB)は、オンラインハラスメント、ハラスメント、マンスフィア、その他の過激主義を奨励する12の過激派掲示板フォーラム上で38.5kユーザーが作成した53.5万以上の投稿のテキストデータベースである。
これは20年間に遡る定性的かつ定量的な歴史的傾向を大規模に分析することを可能にする。
ExtremeBBには堅牢な倫理的データ共有体制があり、世界中の学者とデータを共有できる。
- 参考スコア(独自算出の注目度): 6.140272614553825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce ExtremeBB, a textual database of over 53.5M posts made by 38.5k
users on 12 extremist bulletin board forums promoting online hate, harassment,
the manosphere and other forms of extremism. It enables large-scale analyses of
qualitative and quantitative historical trends going back two decades:
measuring hate speech and toxicity; tracing the evolution of different strands
of extremist ideology; tracking the relationships between online subcultures,
extremist behaviours, and real-world violence; and monitoring extremist
communities in near real time. This can shed light not only on the spread of
problematic ideologies but also the effectiveness of interventions. ExtremeBB
comes with a robust ethical data-sharing regime that allows us to share data
with academics worldwide. Since 2020, access has been granted to 49 licensees
in 16 research groups from 12 institutions.
- Abstract(参考訳): オンラインヘイト、ハラスメント、マノスフィア、その他の過激主義を奨励する12の極右掲示板フォーラムにおいて、38.5kユーザーによる535万以上の投稿のテキストデータベースであるextremebbを紹介する。
ヘイトスピーチと毒性を測定すること、過激主義イデオロギーの異なる鎖の進化を追跡すること、オンラインのサブカルチャー、過激主義の行動と現実世界の暴力の関係を追跡すること、そして過激主義のコミュニティをほぼリアルタイムで監視することである。
これは問題となるイデオロギーの広がりだけでなく、介入の有効性にも光を当てることができる。
ExtremeBBには堅牢な倫理的データ共有体制があり、世界中の学者とデータを共有できる。
2020年以降、12の機関から16の研究グループに49のライセンスが与えられている。
関連論文リスト
- iDRAMA-Scored-2024: A Dataset of the Scored Social Media Platform from 2020 to 2023 [22.685953309889825]
Redditの代替プラットフォームであるScoredから大規模なデータセットをリリースしています。
少なくとも58のコミュニティがRedditから移住し、プラットフォームが誕生して以来950以上のコミュニティが誕生した。
私たちは、最先端のモデルによって生成されたデータセットに、すべてのポストの文埋め込みを提供します。
論文 参考訳(メタデータ) (2024-05-16T16:34:03Z) - Monitoring the evolution of antisemitic discourse on extremist social media using BERT [3.3037858066178662]
ソーシャルメディアに対する人種差別と不寛容は、悪質なオンライン環境に寄与する。
オンライン議論において、反ユダヤ主義のテーマとその関連する用語を追跡することは、参加者の感情を監視するのに役立つだろう。
論文 参考訳(メタデータ) (2024-02-06T20:34:49Z) - Hatemongers ride on echo chambers to escalate hate speech diffusion [23.714548893849393]
我々は3つの人気オンラインソーシャルネットワークで680万以上のユーザーから3200万以上の投稿を分析している。
ヘイトモンガーは、単独のヘイトフルコンテンツに比べて情報の拡散を管理する上で、より重要な役割を担っている。
論文 参考訳(メタデータ) (2023-02-05T20:30:48Z) - DisinfoMeme: A Multimodal Dataset for Detecting Meme Intentionally
Spreading Out Disinformation [72.18912216025029]
偽情報ミームの検出を支援するためにDisinfoMemeを提案する。
このデータセットには、COVID-19パンデミック、Black Lives Matter運動、ベジタリアン/ベジタリアンという3つのトピックをカバーするRedditのミームが含まれている。
論文 参考訳(メタデータ) (2022-05-25T09:54:59Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - A Comparison of Online Hate on Reddit and 4chan: A Case Study of the
2020 US Election [2.685668802278155]
我々は、2020年の米大統領選挙に関するRedditと4chanのヘイトなコンテンツを分析するために、さまざまな自然言語処理(NLP)技術を活用しています。
以上の結果から,コンテンツと投稿活動がプラットフォームによってどのように異なるかが示唆された。
我々は、オンライン憎悪のプラットフォーム固有の行動と、異なるプラットフォームが特定の目的を達成する方法について、最初の比較を行った。
論文 参考訳(メタデータ) (2022-02-02T21:48:56Z) - This Must Be the Place: Predicting Engagement of Online Communities in a
Large-scale Distributed Campaign [70.69387048368849]
我々は、何百万人ものアクティブメンバーを持つコミュニティの行動について研究する。
テキストキュー,コミュニティメタデータ,構造的特性を組み合わせたハイブリッドモデルを構築した。
Redditのr/placeを通じて、大規模なオンライン実験を通じて、私たちのモデルの適用性を実証します。
論文 参考訳(メタデータ) (2022-01-14T08:23:16Z) - #ISIS vs #ActionCountersTerrorism: A Computational Analysis of Extremist
and Counter-extremist Twitter Narratives [2.685668802278155]
本研究は,様々な過激派・反過激派のTwitterアカウントのナラティブを分析するために,計算手法を適用した。
以上の結果から,反過激主義的アカウントは,異なるタイプの組織にまたがる反過激主義アカウントと比較して,コンテンツを広める戦略が異なることが示唆された。
論文 参考訳(メタデータ) (2020-08-26T20:46:45Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Cross-ethnicity Face Anti-spoofing Recognition Challenge: A Review [79.49390241265337]
Chalearn Face Anti-Spoofing Detection Challengeは、シングルモーダル(例えば、RGB)とマルチモーダル(例えば、RGB、Depth、赤外線(IR))のトラックで構成されている。
本稿では,その設計,評価プロトコル,結果の概要など,課題の概要について述べる。
論文 参考訳(メタデータ) (2020-04-23T06:43:08Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。