論文の概要: Collective moderation of hate, toxicity, and extremity in online
discussions
- arxiv url: http://arxiv.org/abs/2303.00357v4
- Date: Mon, 11 Dec 2023 13:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 20:40:32.919620
- Title: Collective moderation of hate, toxicity, and extremity in online
discussions
- Title(参考訳): オンライン討論におけるヘイト、毒性、過激な集団的モデレーション
- Authors: Jana Lasser and Alina Herderich and Joshua Garland and Segun Taofeek
Aroyehun and David Garcia and Mirta Galesic
- Abstract要約: われわれはTwitter上で4年間に13万件以上の議論を交わした大規模なコーパスを分析した。
我々は、後続のつぶやきにおけるヘイトスピーチの確率に関係している可能性のある、さまざまな談話の次元を識別する。
事実によって必ずしも支持されない単純な意見を表現することは、その後の議論において最も憎悪に関係している。
- 参考スコア(独自算出の注目度): 1.114199733551736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How can citizens address hate in online discourse? We analyze a large corpus
of more than 130,000 discussions on Twitter over four years. With the help of
human annotators, language models and machine learning classifiers, we identify
different dimensions of discourse that might be related to the probability of
hate speech in subsequent tweets. We use a matching approach and longitudinal
statistical analyses to discern the effectiveness of different counter speech
strategies on the micro-level (individual tweet pairs), meso-level (discussion
trees) and macro-level (days) of discourse. We find that expressing simple
opinions, not necessarily supported by facts, but without insults, relates to
the least hate in subsequent discussions. Sarcasm can be helpful as well, in
particular in the presence of organized extreme groups. Mentioning either
outgroups or ingroups is typically related to a deterioration of discourse. A
pronounced emotional tone, either negative such as anger or fear, or positive
such as enthusiasm and pride, also leads to worse discourse quality. We obtain
similar results for other measures of quality of discourse beyond hate speech,
including toxicity, extremity of speech, and the presence of extreme speakers.
Going beyond one-shot analyses on smaller samples of discourse, our findings
have implications for the successful management of online commons through
collective civic moderation.
- Abstract(参考訳): 市民はどうやって憎しみに対処できるのか?
4年間でtwitter上で13万件を超える議論のコーパスを分析した。
人間のアノテータ、言語モデル、機械学習分類器の助けを借りて、後続のつぶやきにおけるヘイトスピーチの確率と関係のある言論の異なる次元を識別する。
我々は,マイクロレベル(個別ツイート対),メソレベル(判断木),マクロレベル(日)の会話における異なる対声戦略の有効性を明らかにするために,マッチングアプローチと縦断統計分析を用いた。
事実によって必ずしも支持されるのではなく、侮辱のない単純な意見を表現することは、その後の議論において最も憎悪に関係している。
サルカズムはまた、特に組織化された極端な群の存在においても役立つ。
アウトグループまたはイングループへの言及は、典型的には談話の劣化に関連している。
怒りや恐怖などの否定的な感情のトーンや、熱意やプライドのような肯定的な感情のトーンも、会話の質を悪化させる。
また, ヘイトスピーチ以外にも, 有害性, 発話の極端性, 極端な話者の存在など, 発話の質に関する他の指標についても同様の結果を得た。
会話の小さなサンプルをワンショット分析するだけでなく,集合的市民モデレーションによるオンラインコモンズの管理が成功に繋がる可能性が示唆された。
関連論文リスト
- Analyzing User Characteristics of Hate Speech Spreaders on Social Media [20.57872238271025]
ヘイトスピーチにおけるユーザ特性の役割を分析する。
社会的影響の少ないユーザーは、ヘイトスピーチをシェアする傾向にある。
政治的反トランプと反右派憎悪は、より大きな社会的影響力を持つユーザーによって再創造される。
論文 参考訳(メタデータ) (2023-10-24T12:17:48Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Non-Polar Opposites: Analyzing the Relationship Between Echo Chambers
and Hostile Intergroup Interactions on Reddit [66.09950457847242]
Redditユーザーの5.97万人の活動と、13年間に投稿された421万人のコメントについて調査した。
我々は、ユーザーが互いに有害であるかどうかに基づいて、政治コミュニティ間の関係のタイプロジを作成する。
論文 参考訳(メタデータ) (2022-11-25T22:17:07Z) - Speaker Identity Preservation in Dysarthric Speech Reconstruction by
Adversarial Speaker Adaptation [59.41186714127256]
変形性音声再建(DSR)は,変形性音声の品質向上を目的としている。
話者識別に最適化された話者エンコーダ (SE) について検討した。
我々は,新しいマルチタスク学習戦略,すなわち対人話者適応(ASA)を提案する。
論文 参考訳(メタデータ) (2022-02-18T08:59:36Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Nipping in the Bud: Detection, Diffusion and Mitigation of Hate Speech
on Social Media [21.47216483704825]
本稿では,自動ヘイト緩和システムの構築を妨げる方法論的課題について述べる。
ソーシャルメディア上でのヘイトスピーチの拡散を制限するための一連のソリューションについて論じる。
論文 参考訳(メタデータ) (2022-01-04T03:44:46Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Online Hate: Behavioural Dynamics and Relationship with Misinformation [0.0]
YouTubeビデオに100万以上のコメントが寄せられたコーパスでヘイトスピーチ検出を行います。
我々の結果は、ゴドウィンの法則に則って、オンラインの議論は、ますます有害な意見交換へと縮退する傾向にあることを示している。
論文 参考訳(メタデータ) (2021-05-28T17:30:51Z) - Impact and dynamics of hate and counter speech online [0.0]
市民によるカウンタースピーチは、ヘイトスピーチと戦い、平和的で非分極的な言論を促進するための有望な方法だ。
われわれはドイツのTwitterで4年間に起きた180,000件の政治的会話を分析した。
論文 参考訳(メタデータ) (2020-09-16T01:43:28Z) - Countering hate on social media: Large scale classification of hate and
counter speech [0.0]
憎しみに満ちたレトリックは、オンラインの議論をかき立て、極端な社会運動を育み、現実世界の暴力を引き起こす可能性がある。
潜在的な解決策は、市民が憎悪に満ちた会話を積極的に行い、市民の非分極的な言論を復活させようとする市民生成の対決演説である。
ここではドイツのユニークな状況を利用して、オンラインヘイトとカウンタースピーチの組織化に従事した。
我々は,様々な段落埋め込みと正規化ロジスティック回帰関数を組み合わさったアンサンブル学習アルゴリズムを用いて,これらの2つのグループから集めた何百万もの関連ツイートのコーパスにおいて,ヘイトとカウンタースピーチの両方を分類した。
論文 参考訳(メタデータ) (2020-06-02T23:12:52Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。