論文の概要: Understanding Longitudinal Behaviors of Toxic Accounts on Reddit
- arxiv url: http://arxiv.org/abs/2209.02533v1
- Date: Tue, 6 Sep 2022 14:35:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:59:15.828465
- Title: Understanding Longitudinal Behaviors of Toxic Accounts on Reddit
- Title(参考訳): Redditにおける有害アカウントの経時的行動の理解
- Authors: Deepak Kumar, Jeff Hancock, Kurt Thomas, Zakir Durumeric
- Abstract要約: 我々は、Redditに有毒なコメントを投稿する929Kアカウントの研究を18ヶ月にわたって発表した。
これらのアカウントは、侮辱、アイデンティティー攻撃、暴力の脅威、セクシャルハラスメントを含む1400万件以上の有毒なコメントを投稿した。
我々の分析は、オンライン上で有害な行動の自動検出を改善するための、新しい時間ベースおよびグラフベースの機能の基礎を形成します。
- 参考スコア(独自算出の注目度): 7.090204155621651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Toxic comments are the top form of hate and harassment experienced online.
While many studies have investigated the types of toxic comments posted online,
the effects that such content has on people, and the impact of potential
defenses, no study has captured the long-term behaviors of the accounts that
post toxic comments or how toxic comments are operationalized. In this paper,
we present a longitudinal measurement study of 929K accounts that post toxic
comments on Reddit over an 18~month period. Combined, these accounts posted
over 14 million toxic comments that encompass insults, identity attacks,
threats of violence, and sexual harassment. We explore the impact that these
accounts have on Reddit, the targeting strategies that abusive accounts adopt,
and the distinct patterns that distinguish classes of abusive accounts. Our
analysis forms the foundation for new time-based and graph-based features that
can improve automated detection of toxic behavior online and informs the
nuanced interventions needed to address each class of abusive account.
- Abstract(参考訳): Toxicのコメントは、ネット上の憎悪とハラスメントのトップだ。
オンラインで投稿された有毒なコメントの種類、その内容が人に与える影響、潜在的防御の影響など、多くの研究が研究しているが、有毒なコメントを投稿するアカウントの長期的行動や、どのように有毒なコメントが運用されているかは、調査されていない。
本稿では,Reddit上で18ヶ月にわたる有毒なコメントを投稿した929Kアカウントについて,縦断測定を行った。
これらのアカウントは、侮辱、アイデンティティー攻撃、暴力の脅威、セクハラなどを含む1400万件以上の有毒なコメントを投稿した。
我々は、これらのアカウントがredditに与える影響、乱用アカウントが採用するターゲティング戦略、乱用アカウントのクラスを区別する異なるパターンを調査した。
我々の分析は、オンライン上で有害な行動の自動検出を改善し、乱用アカウントの種類ごとに対処するために必要な介入を通知する新しい時間ベースおよびグラフベースの機能の基礎を形成します。
関連論文リスト
- Tracking Patterns in Toxicity and Antisocial Behavior Over User Lifetimes on Large Social Media Platforms [0.2630859234884723]
われわれはRedditとWikipediaの5億件近いコメントで14年間にわたって毒性を分析している。
Reddit上で最も有毒な行動は、最もアクティブなユーザーによって集計され、最も有毒な行動は、最もアクティブでないユーザーによって集計され、Wikipedia上で最も有毒な行動であることがわかった。
論文 参考訳(メタデータ) (2024-07-12T15:45:02Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically
Polarized Posts on Twitter [4.357949911556638]
政治イデオロギーが個人のユーザレベルとTwitterのトピックレベルの両方で毒性に寄与する役割について検討する。
55,415人のTwitterユーザーから1億8700万のツイートを集めた結果、政治イデオロギーやアカウント年齢などのアカウントレベルの特徴が、各ユーザーが有害コンテンツを投稿する頻度を予測する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Classification of social media Toxic comments using Machine learning
models [0.0]
この要約は、ソーシャルメディアプラットフォームにおける有害なコメントの問題を概説している。
この行動は反社会的行動と呼ばれ、オンライン討論、コメント、戦いの間に起こる。
明示的な言語を含むコメントは、有毒、重篤な有毒、わいせつ、脅迫、侮辱、同一性嫌悪など、様々なカテゴリに分類される。
ユーザーを不快な言葉から守るために、企業はコメントを掲示し、ユーザーをブロックし始めた。
論文 参考訳(メタデータ) (2023-04-14T05:40:11Z) - Twitter Users' Behavioral Response to Toxic Replies [1.2387676601792899]
我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
論文 参考訳(メタデータ) (2022-10-24T17:36:58Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Designing Toxic Content Classification for a Diversity of Perspectives [15.466547856660803]
我々は17,280人の参加者を対象に,有毒なコンテンツを構成するものに対するユーザの期待が,人口動態,信念,個人的経験によってどのように異なるかを調査した。
歴史的に嫌がらせのリスクがあるグループは、Reddit、Twitter、あるいは4chanから無作為なコメントを有害であると警告する傾向にある。
JigsawのパースペクティブAPIのような、現在の一大毒性分類アルゴリズムは、パーソナライズされたモデルチューニングによって、平均86%の精度で改善できることを示す。
論文 参考訳(メタデータ) (2021-06-04T16:45:15Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。