論文の概要: Enriching Abusive Language Detection with Community Context
- arxiv url: http://arxiv.org/abs/2206.08445v1
- Date: Thu, 16 Jun 2022 20:54:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-21 07:43:00.130123
- Title: Enriching Abusive Language Detection with Community Context
- Title(参考訳): コミュニティコンテキストによる乱用言語検出の強化
- Authors: Jana Kurrek, Haji Mohammad Saleem, and Derek Ruths
- Abstract要約: 叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
- 参考スコア(独自算出の注目度): 0.3708656266586145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Uses of pejorative expressions can be benign or actively empowering. When
models for abuse detection misclassify these expressions as derogatory, they
inadvertently censor productive conversations held by marginalized groups. One
way to engage with non-dominant perspectives is to add context around
conversations. Previous research has leveraged user- and thread-level features,
but it often neglects the spaces within which productive conversations take
place. Our paper highlights how community context can improve classification
outcomes in abusive language detection. We make two main contributions to this
end. First, we demonstrate that online communities cluster by the nature of
their support towards victims of abuse. Second, we establish how community
context improves accuracy and reduces the false positive rates of
state-of-the-art abusive language classifiers. These findings suggest a
promising direction for context-aware models in abusive language research.
- Abstract(参考訳): 叙述表現の使用は、良心的または活発な権限を与えることができる。
虐待検出のためのモデルが、これらの表現を軽蔑的と誤分類した場合、彼らは故意に、疎外されたグループによる生産的な会話を検閲する。
非支配的な視点に取り組むひとつの方法は、会話に関するコンテキストを追加することです。
これまでの研究では、ユーザレベルとスレッドレベルの機能を活用していたが、生産的な会話が行われるスペースを無視することが多い。
本稿では,コミュニティコンテキストが乱用言語検出における分類結果をどのように改善するかを示す。
我々はこの目的に2つの大きな貢献をした。
まず,虐待被害者に対する支援という性質から,オンラインコミュニティの集団化を実証する。
第2に,コミュニティコンテキストが精度を向上させる方法を確立し,最先端の乱用言語分類器の偽陽性率を低減させる。
これらの知見は、乱用言語研究における文脈認識モデルに有望な方向性を示唆する。
関連論文リスト
- Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - A Keyword Based Approach to Understanding the Overpenalization of
Marginalized Groups by English Marginal Abuse Models on Twitter [2.9604738405097333]
有害なコンテンツ検出モデルは、疎外されたグループからのコンテンツに対する偽陽性率が高い傾向にある。
テキストベースモデルに関連付けられた潜在的害の重症度を検出・測定するための原則的アプローチを提案する。
提案手法を適用して,Twitterの英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・日本語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語・英語
論文 参考訳(メタデータ) (2022-10-07T20:28:00Z) - Improved two-stage hate speech classification for twitter based on Deep
Neural Networks [0.0]
ヘイトスピーチ(Hate speech)は、虐待的な言葉の使用を含む、オンラインハラスメントの一種である。
この研究で提案するモデルは、LSTMニューラルネットワークアーキテクチャに基づく既存のアプローチの拡張である。
本研究は,16kツイートの公開コーパスで評価された2段階目の提案手法の性能比較を含む。
論文 参考訳(メタデータ) (2022-06-08T20:57:41Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Abusive Language Detection in Heterogeneous Contexts: Dataset Collection
and the Role of Supervised Attention [9.597481034467915]
乱用言語は、オンラインソーシャルプラットフォームにおいて大きな問題である。
YouTubeから11,000以上のコメントで、乱用言語の注釈付きデータセットを提供する。
本稿では,教師付きアテンション機構を用いて乱用コンテンツを検出し,分類するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-05-24T06:50:19Z) - Abuse is Contextual, What about NLP? The Role of Context in Abusive
Language Annotation and Detection [2.793095554369281]
我々は、メッセージの憎しみのあるコンテンツが文脈に基づいて判断されたときに何が起こるかを調べる。
英語における乱用言語検出のための広範に使用されるデータセットの一部を,まず2つの条件で再注釈した。
文脈を伴わない。
論文 参考訳(メタデータ) (2021-03-27T14:31:52Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - On Negative Interference in Multilingual Models: Findings and A
Meta-Learning Treatment [59.995385574274785]
従来の信念に反して、負の干渉は低リソース言語にも影響を及ぼすことを示す。
メタ学習アルゴリズムは、より優れた言語間変換性を得、負の干渉を軽減する。
論文 参考訳(メタデータ) (2020-10-06T20:48:58Z) - Joint Modelling of Emotion and Abusive Language Detection [26.18171134454037]
マルチタスク学習フレームワークを用いて,感情と虐待的言語検出の最初のジョイントモデルを提案する。
その結果、感情的特徴を取り入れることで、データセット間での悪用検出性能が大幅に向上することが示された。
論文 参考訳(メタデータ) (2020-05-28T14:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。