論文の概要: A feast for trolls -- Engagement analysis of counternarratives against
online toxicity
- arxiv url: http://arxiv.org/abs/2111.07188v1
- Date: Sat, 13 Nov 2021 20:38:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 15:22:29.737869
- Title: A feast for trolls -- Engagement analysis of counternarratives against
online toxicity
- Title(参考訳): トロルの祝宴 --オンライン毒性に対する反ナラティブのエンゲージメント分析
- Authors: Tom De Smedt, Pierre Vou\'e, Sylvia Jaki, Emily Duffy, Lydia El-Khouri
- Abstract要約: 2020年2月から2021年7月までの間に、ソーシャルメディアで1500万件以上の有毒メッセージを観察しました。
1000人以上のダッシュボードユーザーが、視覚的なミーム、テキスト、AI生成テキストを組み合わせた有毒なメッセージに反応した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report provides an engagement analysis of counternarratives against
online toxicity. Between February 2020 and July 2021, we observed over 15
million toxic messages on social media identified by our fine-grained,
multilingual detection AI. Over 1,000 dashboard users responded to toxic
messages with combinations of visual memes, text, or AI-generated text, or they
reported content. This leads to new, real-life insights on self-regulatory
approaches for the mitigation of online hate.
- Abstract(参考訳): 本報告はオンライン毒性に対する反ナラティブの関与分析である。
2020年2月から2021年7月までにソーシャルメディア上で1500万以上の有害なメッセージが検出された。
1000人以上のダッシュボードユーザーが、ビジュアルミーム、テキスト、AI生成テキストの組み合わせで有害なメッセージに反応した。
これは、オンラインヘイトを緩和するための自己規制アプローチに関する、新たな現実的な洞察につながります。
関連論文リスト
- Characterizing Online Toxicity During the 2022 Mpox Outbreak: A Computational Analysis of Topical and Network Dynamics [0.9831489366502301]
2022年のムポックスの流行は、当初は「モンキーポックス」と呼ばれていたが、その後、関連するスティグマや社会的懸念を緩和するために改名された。
我々は660万以上のユニークツイートを収集し、コンテキスト、範囲、コンテンツ、話者、意図といった5つの次元から分析しました。
我々は、Twitter上での有害なオンライン談話(46.6%)、病気(46.6%)、健康政策と医療(19.3%)、ホモフォビア(23.9%)、政治など、高レベルのトピックを5つ特定した。
有毒なコンテンツのリツイートが広まっていたのに対して、影響力のあるユーザはリツイートを通じてこの有毒な行為に関わったり、反対したりすることはめったにない。
論文 参考訳(メタデータ) (2024-08-21T19:31:01Z) - Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Detoxifying Text with MaRCo: Controllable Revision with Experts and
Anti-Experts [57.38912708076231]
本稿では,制御可能な生成法とテキスト書き直し法を組み合わせた解毒アルゴリズムMARCoを紹介する。
MaRCoは、毒性のないLMと毒性のあるLMの下の可能性を利用して、マスクすべき候補単語を見つけ、置換する可能性がある。
我々は,いくつかの微妙な毒性とマイクロアグレスデータセットについて評価し,自動測定値の基準値を上回るだけでなく,MARCoの書き直しは人間による評価で2.1ドル以上好まれることを示した。
論文 参考訳(メタデータ) (2022-12-20T18:50:00Z) - Twitter Users' Behavioral Response to Toxic Replies [1.2387676601792899]
我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
論文 参考訳(メタデータ) (2022-10-24T17:36:58Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - ALONE: A Dataset for Toxic Behavior among Adolescents on Twitter [5.723363140737726]
本稿では,ALONE(AdoLescents ON twittEr)と呼ばれる,高校生間の有害なソーシャルメディアインタラクションのデータセットを提供する。
インターネット利用者の66%近くがオンラインハラスメントを経験しており、41%が個人的体験を主張しており、18%が深刻なオンラインハラスメントに直面している。
我々の観察では、個々のツイートが有害な行動を示す十分な証拠を提供していないことが示されており、インタラクションにおける意味のあるコンテキストの利用により、報告された有害性のあるツイートをハイライトしたり削除したりすることが可能である。
論文 参考訳(メタデータ) (2020-08-14T17:02:55Z) - Using Sentiment Information for Preemptive Detection of Toxic Comments
in Online Conversations [0.0]
一部の著者は、最初の数つのメッセージの特徴を使って会話が有害な状態に陥るかどうかを予測しようとした。
会話の最初のメッセージで表される感情が、今後の毒性を予測するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-06-17T20:41:57Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。