論文の概要: Using Sentiment Information for Preemptive Detection of Toxic Comments
in Online Conversations
- arxiv url: http://arxiv.org/abs/2006.10145v1
- Date: Wed, 17 Jun 2020 20:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 21:12:22.947087
- Title: Using Sentiment Information for Preemptive Detection of Toxic Comments
in Online Conversations
- Title(参考訳): オンライン会話における感情情報を用いた有害コメントのプリエンプティブ検出
- Authors: \'Eloi Brassard-Gourdeau, Richard Khoury
- Abstract要約: 一部の著者は、最初の数つのメッセージの特徴を使って会話が有害な状態に陥るかどうかを予測しようとした。
会話の最初のメッセージで表される感情が、今後の毒性を予測するのにどのように役立つかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The challenge of automatic detection of toxic comments online has been the
subject of a lot of research recently, but the focus has been mostly on
detecting it in individual messages after they have been posted. Some authors
have tried to predict if a conversation will derail into toxicity using the
features of the first few messages. In this paper, we combine that approach
with previous work on toxicity detection using sentiment information, and show
how the sentiments expressed in the first messages of a conversation can help
predict upcoming toxicity. Our results show that adding sentiment features does
help improve the accuracy of toxicity prediction, and also allow us to make
important observations on the general task of preemptive toxicity detection.
- Abstract(参考訳): オンライン上で有害コメントを自動的に検出するという課題は、最近多くの研究の対象となっているが、主に投稿された個々のメッセージで検出することに焦点を当てている。
一部の著者は、最初の数つのメッセージの特徴を使って会話が有害になるかどうかを予測しようとした。
本稿では,このアプローチと,感情情報を用いた毒性検出に関するこれまでの研究を組み合わせることで,会話の最初のメッセージで表現された感情が今後の毒性を予測する上でどのように役立つかを示す。
以上の結果から,感情的特徴を加えることで毒性予測の精度が向上し,予防的毒性検出の一般的な課題について重要な観察が可能になることが示唆された。
関連論文リスト
- Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Facilitating Fine-grained Detection of Chinese Toxic Language:
Hierarchical Taxonomy, Resources, and Benchmarks [18.44630180661091]
既存のデータセットには、有害な型や表現の詳細なアノテーションがない。
ポストの毒性を検出するために語彙的知識を導入することが重要である。
本稿では,中国語の有害な言語をきめ細かい検出を容易にする。
論文 参考訳(メタデータ) (2023-05-08T03:50:38Z) - Detoxifying Text with MaRCo: Controllable Revision with Experts and
Anti-Experts [57.38912708076231]
本稿では,制御可能な生成法とテキスト書き直し法を組み合わせた解毒アルゴリズムMARCoを紹介する。
MaRCoは、毒性のないLMと毒性のあるLMの下の可能性を利用して、マスクすべき候補単語を見つけ、置換する可能性がある。
我々は,いくつかの微妙な毒性とマイクロアグレスデータセットについて評価し,自動測定値の基準値を上回るだけでなく,MARCoの書き直しは人間による評価で2.1ドル以上好まれることを示した。
論文 参考訳(メタデータ) (2022-12-20T18:50:00Z) - Twitter Users' Behavioral Response to Toxic Replies [1.2387676601792899]
我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
論文 参考訳(メタデータ) (2022-10-24T17:36:58Z) - Revisiting Contextual Toxicity Detection in Conversations [28.465019968374413]
ヒトによる毒性のラベル付けは、一般的に、会話の構造、極性、文脈の話題に影響されている。
本稿では、文脈毒性検出のためのニューラルネットワークを導入して、これらの知見を計算検出モデルに適用することを提案する。
また、このようなモデルが、特にソーシャルメディア領域において、合成データの恩恵を受けることを実証した。
論文 参考訳(メタデータ) (2021-11-24T11:50:37Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - The Structure of Toxic Conversations on Twitter [10.983958397797847]
Twitter上での会話における構造と毒性の関係について検討した。
個人レベルでは、毒性は多くの低レベルから中程度の有害なユーザーに分散している。
グループレベルでは、有害な会話はより大きく、より広く、より深い応答木を持つ傾向にある。
論文 参考訳(メタデータ) (2021-05-25T01:18:02Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - Fortifying Toxic Speech Detectors Against Veiled Toxicity [38.20984369410193]
本研究では,既存の有毒な音声検出装置を,大規模にラベル付けされた有毒なコーパスを使わずに強化する枠組みを提案する。
ほんの一握りのサンプルが、より偽装された犯罪の桁を表わすのに使われている。
論文 参考訳(メタデータ) (2020-10-07T04:43:48Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。