論文の概要: Hate Cannot Drive out Hate: Forecasting Conversation Incivility
following Replies to Hate Speech
- arxiv url: http://arxiv.org/abs/2312.04804v1
- Date: Fri, 8 Dec 2023 02:39:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 16:23:35.336250
- Title: Hate Cannot Drive out Hate: Forecasting Conversation Incivility
following Replies to Hate Speech
- Title(参考訳): 憎しみは排除できない:ヘイトスピーチへの回答に続いて会話の近親相姦を予測する
- Authors: Xinchen Yu, Eduardo Blanco, Lingzi Hong
- Abstract要約: 本研究では,公民権・公民権のコメント数に基づいて,会話の非公民権度を測定する指標を提案する。
言語学的分析により,高次かつ低次かつフォローアップな会話を誘発する応答の言語の違いが明らかになった。
- 参考スコア(独自算出の注目度): 12.274054522085107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-generated replies to hate speech are promising means to combat hatred,
but questions about whether they can stop incivility in follow-up conversations
linger. We argue that effective replies stop incivility from emerging in
follow-up conversations - replies that elicit more incivility are
counterproductive. This study introduces the task of predicting the incivility
of conversations following replies to hate speech. We first propose a metric to
measure conversation incivility based on the number of civil and uncivil
comments as well as the unique authors involved in the discourse. Our metric
approximates human judgments more accurately than previous metrics. We then use
the metric to evaluate the outcomes of replies to hate speech. A linguistic
analysis uncovers the differences in the language of replies that elicit
follow-up conversations with high and low incivility. Experimental results show
that forecasting incivility is challenging. We close with a qualitative
analysis shedding light into the most common errors made by the best model.
- Abstract(参考訳): ヘイトスピーチに対するユーザー生成の返信は、憎悪と戦う手段として有望だが、フォローアップ会話のインキビティを止めることができるかという疑問がある。
我々は、効果的なリプライは、フォローアップの会話でインシヴィティが出現するのを阻止する、と主張する。
本研究は,ヘイトスピーチに対する回答の後,会話の不信感を予測するタスクを紹介する。
まず,公民・公民のコメント数と談話に関わった独特の著者数に基づいて,会話の市民性を測定する指標を提案する。
我々の計量は以前の測定値よりも人間の判断を正確に近似する。
次に、ヘイトスピーチに対する回答の結果を評価するためにメトリクスを使用します。
言語学的分析により,高次かつ低次的な会話を促す応答の言語の違いが明らかになった。
実験の結果,インキビティの予測が困難であることが判明した。
我々は、最良のモデルによってなされる最も一般的なエラーに光を流す質的分析で閉じる。
関連論文リスト
- Hostile Counterspeech Drives Users From Hate Subreddits [1.5035331281822]
我々は、Redditにおけるヘイトサブレディット内の新参者に対する反音声の効果を分析した。
非敵対的なカウンタースピーチは、ユーザーがこれらの憎悪のサブレディットから完全に切り離すのを防ぐのに効果がない。
単一の敵対的な反論は、将来のエンゲージメントの可能性を大幅に減らす。
論文 参考訳(メタデータ) (2024-05-28T17:12:41Z) - Analyzing User Characteristics of Hate Speech Spreaders on Social Media [20.57872238271025]
ヘイトスピーチにおけるユーザ特性の役割を分析する。
社会的影響の少ないユーザーは、ヘイトスピーチをシェアする傾向にある。
政治的反トランプと反右派憎悪は、より大きな社会的影響力を持つユーザーによって再創造される。
論文 参考訳(メタデータ) (2023-10-24T12:17:48Z) - Mitigating Bias in Conversations: A Hate Speech Classifier and Debiaser
with Prompts [0.6827423171182153]
まず、分類器を用いてヘイトスピーチを検出し、次にプロンプトを通じてバイアスやバイアスの少ない代替品を生成するデバイアス成分を利用する。
提案手法をベンチマークデータセット上で評価し,ヘイトスピーチのコメントによる否定性の低下を観察した。
論文 参考訳(メタデータ) (2023-07-14T13:33:28Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Collective moderation of hate, toxicity, and extremity in online
discussions [1.114199733551736]
われわれはTwitter上で4年間に13万件以上の議論を交わした大規模なコーパスを分析した。
我々は、後続のつぶやきにおけるヘイトスピーチの確率に関係している可能性のある、さまざまな談話の次元を識別する。
事実によって必ずしも支持されない単純な意見を表現することは、その後の議論において最も憎悪に関係している。
論文 参考訳(メタデータ) (2023-03-01T09:35:26Z) - Hate Speech and Counter Speech Detection: Conversational Context Does
Matter [7.333666276087548]
本稿では,オンラインヘイトとカウンタースピーチのアノテーションと検出における会話コンテキストの役割について検討する。
私たちはRedditのコメントに3段階の分類タスク(ヘイトスピーチ、カウンタースピーチ、中立性)のためのコンテキスト対応データセットを作成しました。
論文 参考訳(メタデータ) (2022-06-13T19:05:44Z) - Analyzing the Intensity of Complaints on Social Media [55.140613801802886]
テキストからの苦情の強度を測定する計算言語学における最初の研究について述べる。
私たちは中国のソーシャルメディアプラットフォームであるWeiboからの苦情に関する3,103件の投稿を含む最初の中国のデータセットを作成しました。
平均二乗誤差が0.11となる計算モデルにより,苦情強度を正確に推定できることを示す。
論文 参考訳(メタデータ) (2022-04-20T10:15:44Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - Did they answer? Subjective acts and intents in conversational discourse [48.63528550837949]
英会話の複数の主観的かつ主観的な解釈を含む最初の対話データセットを提示する。
意見の相違が曖昧であることを示し、異なる文脈要因についてより深く理解する必要がある。
論文 参考訳(メタデータ) (2021-04-09T16:34:19Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。