論文の概要: Predicting Different Types of Subtle Toxicity in Unhealthy Online
Conversations
- arxiv url: http://arxiv.org/abs/2106.03952v1
- Date: Mon, 7 Jun 2021 20:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 10:45:48.708804
- Title: Predicting Different Types of Subtle Toxicity in Unhealthy Online
Conversations
- Title(参考訳): 不健康なオンライン会話におけるサブトル毒性の予測
- Authors: Shlok Gilda, Mirela Silva, Luiz Giovanini, Daniela Oliveira
- Abstract要約: 健康で不健康なコメントを7種類の微妙な毒性でラベル付けした44万件のオンラインコメントの公開データセットを活用しました。
これらのコメントを上位のマイクロF1スコア、マクロF1スコア、ROC-AUCの88.76%、67.98%、0.71で区別することができた。
- 参考スコア(独自算出の注目度): 0.7646713951724011
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates the use of machine learning models for the
classification of unhealthy online conversations containing one or more forms
of subtler abuse, such as hostility, sarcasm, and generalization. We leveraged
a public dataset of 44K online comments containing healthy and unhealthy
comments labeled with seven forms of subtle toxicity. We were able to
distinguish between these comments with a top micro F1-score, macro F1-score,
and ROC-AUC of 88.76%, 67.98%, and 0.71, respectively. Hostile comments were
easier to detect than other types of unhealthy comments. We also conducted a
sentiment analysis which revealed that most types of unhealthy comments were
associated with a slight negative sentiment, with hostile comments being the
most negative ones.
- Abstract(参考訳): 本稿では、敵意、皮肉、一般化などの1つ以上の微妙な乱用を含む不健康なオンライン会話の分類に機械学習モデルを用いることを検討する。
7種類の微妙な毒性のラベルが付けられた健康で不健康なコメントを含む44kのオンラインコメントの公開データセットを利用した。
これらのコメントを上位のマイクロF1スコア、マクロF1スコア、ROC-AUCの88.76%、67.98%、0.71で区別することができた。
敵対的なコメントは、他のタイプの不健康なコメントよりも検出しやすい。
また感情分析を行い,不健全なコメントのほとんどがネガティブな感情と関連しており,敵対的なコメントが最もネガティブなコメントであることを明らかにした。
関連論文リスト
- Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - ViCo: Engaging Video Comment Generation with Human Preference Rewards [68.50351391812723]
ビデオコメント生成の課題に対処するために,3つの新しいデザインのViCoを提案する。
コメントのエンゲージメントを定量化するために、各コメントが受け取る「いいね!
コメントのエンゲージメントを自動的に評価するために、我々は報酬モデルをトレーニングし、その判断を上記のプロキシに合わせる。
論文 参考訳(メタデータ) (2023-08-22T04:01:01Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Classification of social media Toxic comments using Machine learning
models [0.0]
この要約は、ソーシャルメディアプラットフォームにおける有害なコメントの問題を概説している。
この行動は反社会的行動と呼ばれ、オンライン討論、コメント、戦いの間に起こる。
明示的な言語を含むコメントは、有毒、重篤な有毒、わいせつ、脅迫、侮辱、同一性嫌悪など、様々なカテゴリに分類される。
ユーザーを不快な言葉から守るために、企業はコメントを掲示し、ユーザーをブロックし始めた。
論文 参考訳(メタデータ) (2023-04-14T05:40:11Z) - Understanding Longitudinal Behaviors of Toxic Accounts on Reddit [7.090204155621651]
我々は、Redditに有毒なコメントを投稿する929Kアカウントの研究を18ヶ月にわたって発表した。
これらのアカウントは、侮辱、アイデンティティー攻撃、暴力の脅威、セクシャルハラスメントを含む1400万件以上の有毒なコメントを投稿した。
我々の分析は、オンライン上で有害な行動の自動検出を改善するための、新しい時間ベースおよびグラフベースの機能の基礎を形成します。
論文 参考訳(メタデータ) (2022-09-06T14:35:44Z) - Journal Impact Factor and Peer Review Thoroughness and Helpfulness: A
Supervised Machine Learning Study [52.77024349608834]
ジャーナルインパクトファクタ(JIF)は、しばしばジャーナルの品質と、ジャーナルに提出された論文のピアレビューの品質と等価である。
医学・生命科学雑誌1,644誌に1万件の査読報告を提出し, 査読内容とJIFとの関連性を検討した。
論文 参考訳(メタデータ) (2022-07-20T11:14:15Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Online Hate: Behavioural Dynamics and Relationship with Misinformation [0.0]
YouTubeビデオに100万以上のコメントが寄せられたコーパスでヘイトスピーチ検出を行います。
我々の結果は、ゴドウィンの法則に則って、オンラインの議論は、ますます有害な意見交換へと縮退する傾向にあることを示している。
論文 参考訳(メタデータ) (2021-05-28T17:30:51Z) - Reading Between the Demographic Lines: Resolving Sources of Bias in
Toxicity Classifiers [0.0]
パースペクティブAPIはおそらく業界で最も広く使われている毒性分類器である。
Googleのモデルは、一般的に標的とするグループのアイデンティティを参照する単語を含むコメントに、より高い毒性スコアを不公平に割り当てる傾向がある。
我々は,強い分類性能を維持しつつ,意図しないバイアスを低減する目的で,いくつかの毒性分類器を構築した。
論文 参考訳(メタデータ) (2020-06-29T21:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。