論文の概要: Online Hate: Behavioural Dynamics and Relationship with Misinformation
- arxiv url: http://arxiv.org/abs/2105.14005v1
- Date: Fri, 28 May 2021 17:30:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:21:40.689530
- Title: Online Hate: Behavioural Dynamics and Relationship with Misinformation
- Title(参考訳): オンラインヘイト:行動動態と誤情報との関係
- Authors: Matteo Cinelli, Andra\v{z} Pelicon, Igor Mozeti\v{c}, Walter
Quattrociocchi, Petra Kralj Novak, Fabiana Zollo
- Abstract要約: YouTubeビデオに100万以上のコメントが寄せられたコーパスでヘイトスピーチ検出を行います。
我々の結果は、ゴドウィンの法則に則って、オンラインの議論は、ますます有害な意見交換へと縮退する傾向にあることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Online debates are often characterised by extreme polarisation and heated
discussions among users. The presence of hate speech online is becoming
increasingly problematic, making necessary the development of appropriate
countermeasures. In this work, we perform hate speech detection on a corpus of
more than one million comments on YouTube videos through a machine learning
model fine-tuned on a large set of hand-annotated data. Our analysis shows that
there is no evidence of the presence of "serial haters", intended as active
users posting exclusively hateful comments. Moreover, coherently with the echo
chamber hypothesis, we find that users skewed towards one of the two categories
of video channels (questionable, reliable) are more prone to use inappropriate,
violent, or hateful language within their opponents community. Interestingly,
users loyal to reliable sources use on average a more toxic language than their
counterpart. Finally, we find that the overall toxicity of the discussion
increases with its length, measured both in terms of number of comments and
time. Our results show that, coherently with Godwin's law, online debates tend
to degenerate towards increasingly toxic exchanges of views.
- Abstract(参考訳): オンラインの議論は、しばしばユーザーの極端な偏光と熱い議論によって特徴づけられる。
オンラインでのヘイトスピーチの存在はますます問題になり、適切な対策を開発する必要がある。
本研究では,youtubeビデオ上で100万以上のコメントを収集したコーパス上で,手書きの大量のデータに微調整された機械学習モデルを用いてヘイトスピーチ検出を行う。
分析の結果,憎悪コメントのみを投稿するアクティブユーザを意図した「シリアル憎悪者」の存在の証拠は見当たらないことがわかった。
さらに, エコーチャンバ仮説と一致して, ユーザは, 相手コミュニティ内で不適切な, 暴力的, 憎悪的な言語を使用する傾向が強く, ビデオチャンネルの2つのカテゴリのうちの1つに傾倒している。
興味深いことに、信頼できる情報源に忠実なユーザーは、平均して、より有毒な言語を使っている。
最後に、議論の全体毒性は、コメントの数と時間の両方で測定され、その長さとともに増加することが判明した。
我々の結果は、ゴドウィンの法則に固執して、オンラインの議論はますます有毒な意見交換へと退化する傾向があることを示している。
関連論文リスト
- Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically Polarized Posts on Twitter [5.161088104035108]
個人レベルでの毒性と,Twitter/X上でのトピックレベルに寄与するパーシスタンスと感情分極が果たす役割について検討する。
43,151人のTwitter/Xユーザーから8960万のツイートを収集した後、パーティショニングを含むいくつかのアカウントレベルの特徴が、ユーザーが有害コンテンツを投稿する頻度を予測するかを決定する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Collective moderation of hate, toxicity, and extremity in online
discussions [1.114199733551736]
われわれはTwitter上で4年間に13万件以上の議論を交わした大規模なコーパスを分析した。
我々は、後続のつぶやきにおけるヘイトスピーチの確率に関係している可能性のある、さまざまな談話の次元を識別する。
事実によって必ずしも支持されない単純な意見を表現することは、その後の議論において最も憎悪に関係している。
論文 参考訳(メタデータ) (2023-03-01T09:35:26Z) - Non-Polar Opposites: Analyzing the Relationship Between Echo Chambers
and Hostile Intergroup Interactions on Reddit [66.09950457847242]
Redditユーザーの5.97万人の活動と、13年間に投稿された421万人のコメントについて調査した。
我々は、ユーザーが互いに有害であるかどうかに基づいて、政治コミュニティ間の関係のタイプロジを作成する。
論文 参考訳(メタデータ) (2022-11-25T22:17:07Z) - Quantifying How Hateful Communities Radicalize Online Users [2.378428291297535]
我々は、他のソーシャルネットワークに伝播するヘイトスピーチの観点から、フロンティアヘイトフルなコミュニティに参加することの影響を計測する。
Redditのデータを使って、1種類のエコーチャンバーに参加する効果を評価する。
有害な言論はコミュニティに留まらないことを示す。
論文 参考訳(メタデータ) (2022-09-19T01:13:29Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。