論文の概要: Tracking Patterns in Toxicity and Antisocial Behavior Over User Lifetimes on Large Social Media Platforms
- arxiv url: http://arxiv.org/abs/2407.09365v1
- Date: Fri, 12 Jul 2024 15:45:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-15 22:58:40.427603
- Title: Tracking Patterns in Toxicity and Antisocial Behavior Over User Lifetimes on Large Social Media Platforms
- Title(参考訳): 大規模ソーシャルメディアプラットフォーム上でのユーザ生活における毒性と反社会的行動の追跡パターン
- Authors: Katy Blumer, Jon Kleinberg,
- Abstract要約: われわれはRedditとWikipediaの5億件近いコメントで14年間にわたって毒性を分析している。
Reddit上で最も有毒な行動は、最もアクティブなユーザーによって集計され、最も有毒な行動は、最もアクティブでないユーザーによって集計され、Wikipedia上で最も有毒な行動であることがわかった。
- 参考スコア(独自算出の注目度): 0.2630859234884723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An increasing amount of attention has been devoted to the problem of "toxic" or antisocial behavior on social media. In this paper we analyze such behavior at very large scales: we analyze toxicity over a 14-year time span on nearly 500 million comments from Reddit and Wikipedia, grounded in two different proxies for toxicity. At the individual level, we analyze users' toxicity levels over the course of their time on the site, and find a striking reversal in trends: both Reddit and Wikipedia users tended to become less toxic over their life cycles on the site in the early (pre-2013) history of the site, but more toxic over their life cycles in the later (post-2013) history of the site. We also find that toxicity on Reddit and Wikipedia differ in a key way, with the most toxic behavior on Reddit exhibited in aggregate by the most active users, and the most toxic behavior on Wikipedia exhibited in aggregate by the least active users. Finally, we consider the toxicity of discussion around widely-shared pieces of content, and find that the trends for toxicity in discussion about content bear interesting similarities with the trends for toxicity in discussion by users.
- Abstract(参考訳): ソーシャルメディア上での「有害」や反社会的行動の問題に注目が集まっている。
本稿では, Reddit と Wikipedia の5億件近いコメントに対して, 毒性を14年間にわたって分析する。
Redditとウィキペディアのユーザーは、サイトの初期(2013年以前の)の歴史において、サイト上でのライフサイクルで毒性が低下する傾向にあるが、サイトの後(2013年後半)のライフサイクルでは、より毒性が増す傾向にある。
また、RedditとWikipediaの毒性は、Reddit上で最も有毒な行動が、最もアクティブなユーザーによって集計され、最も有毒な行動が、最もアクティブでないユーザーによって集計されたウィキペディア上での最も有毒な行動が、重要な方法で異なっていることもわかりました。
最後に、広く共有されているコンテンツに関する議論の毒性について考察し、コンテンツに関する議論における毒性の傾向が、ユーザによる議論における毒性の傾向と興味深い類似点を持つことを見出した。
関連論文リスト
- Taming Toxicity or Fueling It? The Great Ban`s Role in Shifting Toxic User Behavior and Engagement [0.6918368994425961]
我々は,Redditが実施した最も大規模な非プラットフォーム的介入の一つであるThe Great Banの有効性を評価した。
約34万のユーザーが共有した5300万のコメントを分析した。
適度な利用者の15.6%がプラットフォームを放棄し、残りの利用者は全体の毒性を4.1%減らした。
論文 参考訳(メタデータ) (2024-11-06T16:34:59Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - ToxicChat: Unveiling Hidden Challenges of Toxicity Detection in
Real-World User-AI Conversation [43.356758428820626]
ToxicChatは、オープンソースのチャットボットからの実際のユーザクエリに基づく、新しいベンチマークである。
既存の毒性データセットに基づいてトレーニングされたモデルの体系的評価は、ToxicChatのこのユニークなドメインに適用した場合の欠点を示している。
将来的には、ToxicChatは、ユーザとAIインタラクションのための安全で健全な環境を構築するためのさらなる進歩を促進する上で、貴重なリソースになり得る。
論文 参考訳(メタデータ) (2023-10-26T13:35:41Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically Polarized Posts on Twitter [5.161088104035108]
個人レベルでの毒性と,Twitter/X上でのトピックレベルに寄与するパーシスタンスと感情分極が果たす役割について検討する。
43,151人のTwitter/Xユーザーから8960万のツイートを収集した後、パーティショニングを含むいくつかのアカウントレベルの特徴が、ユーザーが有害コンテンツを投稿する頻度を予測するかを決定する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Sub-Standards and Mal-Practices: Misinformation's Role in Insular, Polarized, and Toxic Interactions on Reddit [5.161088104035108]
信頼できないニュースサイトの記事に対するコメントは、右利きのサブレディットに掲載されることが多い。
サブレディットの毒性が高まるにつれて、ユーザーは既知の信頼できないウェブサイトからの投稿にコメントする傾向にある。
論文 参考訳(メタデータ) (2023-01-27T01:32:22Z) - User Engagement and the Toxicity of Tweets [1.1339580074756188]
我々は85,300件以上のTwitter会話のランダムなサンプルを分析し、有毒な会話と非有毒な会話の違いを調べる。
有毒な会話(少なくとも1つの有毒なツイートを持つ会話)は、長いが、無害な会話に比べて、個人ユーザーが会話に貢献する割合は少ない。
また、有害なツイートに対する最初の応答の毒性と会話の毒性との関係も調べる。
論文 参考訳(メタデータ) (2022-11-07T20:55:22Z) - Twitter Users' Behavioral Response to Toxic Replies [1.2387676601792899]
我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
論文 参考訳(メタデータ) (2022-10-24T17:36:58Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。