論文の概要: "Short is the Road that Leads from Fear to Hate": Fear Speech in Indian
WhatsApp Groups
- arxiv url: http://arxiv.org/abs/2102.03870v1
- Date: Sun, 7 Feb 2021 18:14:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 16:06:14.180720
- Title: "Short is the Road that Leads from Fear to Hate": Fear Speech in Indian
WhatsApp Groups
- Title(参考訳): 「ショートは恐怖から憎しみへと導く道」:インドのWhatsAppグループにおける恐怖のスピーチ
- Authors: Punyajoy Saha, Binny Mathew, Kiran Garimella, Animesh Mukherjee
- Abstract要約: 私たちは、インドの政治について議論する何千もの公開WhatsAppグループを対象に、恐怖のスピーチに関する最初の大規模な研究を行います。
我々は、恐怖音声を分類するモデルを構築し、現在の最先端のNLPモデルは、このタスクでうまく機能しないことを観察する。
- 参考スコア(独自算出の注目度): 8.682669903229165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: WhatsApp is the most popular messaging app in the world. Due to its
popularity, WhatsApp has become a powerful and cheap tool for political
campaigning being widely used during the 2019 Indian general election, where it
was used to connect to the voters on a large scale. Along with the campaigning,
there have been reports that WhatsApp has also become a breeding ground for
harmful speech against various protected groups and religious minorities. Many
such messages attempt to instil fear among the population about a specific
(minority) community. According to research on inter-group conflict, such `fear
speech' messages could have a lasting impact and might lead to real offline
violence. In this paper, we perform the first large scale study on fear speech
across thousands of public WhatsApp groups discussing politics in India. We
curate a new dataset and try to characterize fear speech from this dataset. We
observe that users writing fear speech messages use various events and symbols
to create the illusion of fear among the reader about a target community. We
build models to classify fear speech and observe that current state-of-the-art
NLP models do not perform well at this task. Fear speech messages tend to
spread faster and could potentially go undetected by classifiers built to
detect traditional toxic speech due to their low toxic nature. Finally, using a
novel methodology to target users with Facebook ads, we conduct a survey among
the users of these WhatsApp groups to understand the types of users who consume
and share fear speech. We believe that this work opens up new research
questions that are very different from tackling hate speech which the research
community has been traditionally involved in.
- Abstract(参考訳): WhatsAppは世界でもっとも人気のあるメッセージングアプリだ。
その人気により、WhatsAppは、2019年のインド総選挙で広く使われている政治キャンペーンのための強力で安価なツールとなり、大規模な投票者への接続に使用された。
このキャンペーンに加えて、WhatsAppは様々な保護団体や宗教的少数派に対する有害なスピーチの場にもなっているという報道もある。
このようなメッセージの多くは、特定の(少数派)コミュニティに対する恐怖を鎮めようとしている。
グループ間紛争の研究によれば、このような「恐ろしい言動」メッセージは永続的な影響をもたらし、真のオフライン暴力につながる可能性がある。
本稿では,インドの政治を議論する数千の公開WhatsAppグループを対象に,恐怖のスピーチに関する大規模な研究を行った。
新しいデータセットをキュレートし、このデータセットから恐怖のスピーチを特徴付けるようにします。
恐怖のメッセージを書くユーザは、さまざまなイベントやシンボルを使って、対象とするコミュニティに対する読者の恐怖の錯覚を創り出す。
我々は,恐怖音声を分類するモデルを構築し,現状のnlpモデルでは,このタスクではうまく機能しないことを示す。
恐怖的な音声メッセージは急速に広まり、従来の有害な音声を検出するために構築された分類器によって検出されない可能性がある。
最後に、Facebookの広告でユーザーをターゲットとする新しい手法を用いて、これらのWhatsAppグループのユーザーの間で調査を行い、恐怖の言葉を消費し共有するユーザーのタイプを理解する。
この研究は、研究コミュニティが伝統的に関わってきたヘイトスピーチに取り組むのとは大きく異なる新しい研究問題を開くと信じています。
関連論文リスト
- Analysis and Detection of Multilingual Hate Speech Using Transformer
Based Deep Learning [7.332311991395427]
ヘイトスピーチの普及に伴い,NLPタスクとしての自動検出の需要が高まっている。
本研究では、Twitter、Facebook、WhatsApp、Instagramなどのソーシャルメディアにおけるヘイトスピーチを検出するために、トランスフォーマーベースのモデルを提案する。
金の標準データセットは、著名な研究者Zeerak Talat、Sara Tonelli、Melanie Siegel、Rezaul Karimから収集された。
ヘイトスピーチ検出のための提案されたモデルの成功率は、ベンガルデータセットの精度の高い既存のベースラインや最先端モデルよりも高く、英語では89%、ドイツ語では91%である。
論文 参考訳(メタデータ) (2024-01-19T20:40:23Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - The Face of Populism: Examining Differences in Facial Emotional
Expressions of Political Leaders Using Machine Learning [57.70351255180495]
深層学習に基づくコンピュータビジョンのアルゴリズムを、15カ国の政治指導者を描いた220本のYouTubeビデオのサンプルに適用する。
ポピュリスト・レトリックの度合いが異なるリーダー群間での否定的感情の平均スコアの統計的に有意な差を観察した。
論文 参考訳(メタデータ) (2023-04-19T18:32:49Z) - On the rise of fear speech in online social media [7.090807766284268]
恐怖のスピーチは、名前が示すように、ターゲットのコミュニティに対する恐怖を呼び起こそうとしている。
本稿では,Gab.comから収集した400K以上の恐怖音声と700K以上のヘイトスピーチ投稿の頻度を理解するための大規模研究について述べる。
論文 参考訳(メタデータ) (2023-03-18T02:46:49Z) - Automated Sentiment and Hate Speech Analysis of Facebook Data by
Employing Multilingual Transformer Models [15.823923425516078]
我々は、Facebookの代表的なデータセットの中で、憎悪とネガティブな感情内容の統計的分布を分析する。
我々は、感情分析やヘイトスピーチ分析を行うために、最先端のオープンソースのXLM-T多言語変換言語モデルを用いている。
論文 参考訳(メタデータ) (2023-01-31T14:37:04Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - The Spread of Propaganda by Coordinated Communities on Social Media [43.2770127582382]
我々は、2019年イギリス総選挙に関する大規模なTwitterデータセット上で、プロパガンダの拡散とその協調行動との相互作用を分析する。
プロパガンダの利用と協調行動を組み合わせることで、異なるコミュニティの真正性と有害性を明らかにすることができる。
論文 参考訳(メタデータ) (2021-09-27T13:39:10Z) - Hate speech detection using static BERT embeddings [0.9176056742068814]
ヘイトスピーチは、特定のグループの特徴をターゲットとした虐待的スピーチを表現する主要な関心事として浮上している。
本稿では,単語埋め込みの置き換えや統合によるヘイトスピーチ検出の性能解析を行う。
細調整されたBERTと比較して、大幅に改善された指標は特異性である。
論文 参考訳(メタデータ) (2021-06-29T16:17:10Z) - PoliWAM: An Exploration of a Large Scale Corpus of Political Discussions
on WhatsApp Messenger [1.2301855531996841]
WhatsApp Messengerは、現在180か国、20億人以上で情報を広める最も人気のあるチャンネルの1つだ。
近年、いくつかの国が政治的・社会的キャンペーンにおいてその効果と影響力を目撃している。
我々は選挙運動中に情報とプロパガンダの流れが急増しているのを観察する。
論文 参考訳(メタデータ) (2020-10-26T00:35:57Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。