論文の概要: Twitter Users' Behavioral Response to Toxic Replies
- arxiv url: http://arxiv.org/abs/2210.13420v1
- Date: Mon, 24 Oct 2022 17:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:02:51.562097
- Title: Twitter Users' Behavioral Response to Toxic Replies
- Title(参考訳): トックス反応に対するTwitterユーザーの行動反応
- Authors: Ana Aleksandric, Sayak Saha Roy, Shirin Nilizadeh
- Abstract要約: 我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
- 参考スコア(独自算出の注目度): 1.2387676601792899
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online toxic attacks, such as harassment, trolling, and hate speech have been
linked to an increase in offline violence and negative psychological effects on
victims. In this paper, we studied the impact of toxicity on users' online
behavior. We collected a sample of 79.8k Twitter conversations. Then, through a
longitudinal study, for nine weeks, we tracked and compared the behavioral
reactions of authors, who were toxicity victims, with those who were not. We
found that toxicity victims show a combination of the following behavioral
reactions: avoidance, revenge, countermeasures, and negotiation. We performed
statistical tests to understand the significance of the contribution of toxic
replies toward user behaviors while considering confounding factors, such as
the structure of conversations and the user accounts' visibility,
identifiability, and activity level. Interestingly, we found that compared to
other random authors, victims are more likely to engage in conversations, reply
in a toxic way, and unfollow toxicity instigators. Even if the toxicity is
directed at other participants, the root authors are more likely to engage in
the conversations and reply in a toxic way. However, victims who have verified
accounts are less likely to participate in conversations or respond by posting
toxic comments. In addition, replies are more likely to be removed in
conversations with a larger percentage of toxic nested replies and toxic
replies directed at other users. Our results can assist further studies in
developing more effective detection and intervention methods for reducing the
negative consequences of toxicity on social media.
- Abstract(参考訳): ハラスメント、トロール、ヘイトスピーチなどのオンラインの有害な攻撃は、オフライン暴力の増加と被害者に対するネガティブな心理的影響と関連付けられている。
本稿では,毒性がユーザのオンライン行動に与える影響について検討した。
79.8kのTwitter会話のサンプルを集めました。
そして,9週間にわたる縦断的研究を通じて,毒性の犠牲者である著者の行動反応と,そうでない著者の行動反応を追跡・比較した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
我々は,会話の構造やユーザアカウントの可視性,識別性,活動レベルなど,不明瞭な要因を考慮しつつ,ユーザ行動に対する有害な応答の寄与の意義を統計的に検証した。
興味深いことに、他のランダムな著者と比べて、被害者は会話に関わり、有害な方法で返信し、有害な扇動者を追いかける傾向が強いことがわかりました。
たとえ毒性が他の参加者に向けられたとしても、根本著者は会話に関わり、有害な反応をする可能性が高い。
しかし、アカウントを確認した被害者は、悪質なコメントを投稿することで会話や対応に参加する可能性が低い。
さらに、他のユーザに向けられた有毒なネストされたリプライや有毒なリプライの比率が大きい会話では、リプライが削除される可能性が高くなる。
本研究は,ソーシャルメディアにおける毒性の悪影響を減らすための,より効果的な検出および介入手法の開発において,さらなる研究を支援することができる。
関連論文リスト
- Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically
Polarized Posts on Twitter [4.357949911556638]
政治イデオロギーが個人のユーザレベルとTwitterのトピックレベルの両方で毒性に寄与する役割について検討する。
55,415人のTwitterユーザーから1億8700万のツイートを集めた結果、政治イデオロギーやアカウント年齢などのアカウントレベルの特徴が、各ユーザーが有害コンテンツを投稿する頻度を予測する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - SQuARe: A Large-Scale Dataset of Sensitive Questions and Acceptable
Responses Created Through Human-Machine Collaboration [75.62448812759968]
このデータセットは、韓国の大規模データセットで、49kの機密性があり、42kの許容範囲と46kの非許容応答がある。
データセットは、実際のニュースの見出しに基づいて、HyperCLOVAを人道的に活用して構築された。
論文 参考訳(メタデータ) (2023-05-28T11:51:20Z) - Understanding the Bystander Effect on Toxic Twitter Conversations [1.1339580074756188]
会話における有害なツイートに対する最初の直接応答の毒性が、その後の応答に対するグループ規範を確立しているかどうかを検討する。
9kの会話に属する156k以上のツイートのランダムなサンプルを分析した。
論文 参考訳(メタデータ) (2022-11-19T18:31:39Z) - User Engagement and the Toxicity of Tweets [1.1339580074756188]
我々は85,300件以上のTwitter会話のランダムなサンプルを分析し、有毒な会話と非有毒な会話の違いを調べる。
有毒な会話(少なくとも1つの有毒なツイートを持つ会話)は、長いが、無害な会話に比べて、個人ユーザーが会話に貢献する割合は少ない。
また、有害なツイートに対する最初の応答の毒性と会話の毒性との関係も調べる。
論文 参考訳(メタデータ) (2022-11-07T20:55:22Z) - Understanding Longitudinal Behaviors of Toxic Accounts on Reddit [7.090204155621651]
我々は、Redditに有毒なコメントを投稿する929Kアカウントの研究を18ヶ月にわたって発表した。
これらのアカウントは、侮辱、アイデンティティー攻撃、暴力の脅威、セクシャルハラスメントを含む1400万件以上の有毒なコメントを投稿した。
我々の分析は、オンライン上で有害な行動の自動検出を改善するための、新しい時間ベースおよびグラフベースの機能の基礎を形成します。
論文 参考訳(メタデータ) (2022-09-06T14:35:44Z) - Toxicity Detection can be Sensitive to the Conversational Context [64.28043776806213]
2種類の毒性ラベルを持つ1万のポストのデータセットを構築し、公開します。
また,新たな課題である文脈感度推定を導入し,コンテキストも考慮された場合,毒性が変化すると認識された投稿を識別することを目的とした。
論文 参考訳(メタデータ) (2021-11-19T13:57:26Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。