論文の概要: Understanding the Bystander Effect on Toxic Twitter Conversations
- arxiv url: http://arxiv.org/abs/2211.10764v1
- Date: Sat, 19 Nov 2022 18:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:32:42.776720
- Title: Understanding the Bystander Effect on Toxic Twitter Conversations
- Title(参考訳): 有害なtwitter会話における傍観者効果の理解
- Authors: Ana Aleksandric, Mohit Singhal, Anne Groggel, Shirin Nilizadeh
- Abstract要約: 会話における有害なツイートに対する最初の直接応答の毒性が、その後の応答に対するグループ規範を確立しているかどうかを検討する。
9kの会話に属する156k以上のツイートのランダムなサンプルを分析した。
- 参考スコア(独自算出の注目度): 1.1339580074756188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we explore the power of group dynamics to shape the toxicity
of Twitter conversations. First, we examine how the presence of others in a
conversation can potentially diffuse Twitter users' responsibility to address a
toxic direct reply. Second, we examine whether the toxicity of the first direct
reply to a toxic tweet in conversations establishes the group norms for
subsequent replies. By doing so, we outline how bystanders and the tone of
initial responses to a toxic reply are explanatory factors which affect whether
others feel uninhibited to post their own abusive or derogatory replies. We
test this premise by analyzing a random sample of more than 156k tweets
belonging to ~9k conversations. Central to this work is the social
psychological research on the "bystander effect" documenting that the presence
of bystanders has the power to alter the dynamics of a social situation. If the
first direct reply reaffirms the divisive tone, other replies may follow suit.
We find evidence of a bystander effect, with our results showing that an
increased number of users participating in the conversation before receiving a
toxic tweet is negatively associated with the number of Twitter users who
responded to the toxic reply in a non-toxic way. We also find that the initial
responses to toxic tweets within conversations is of great importance. Posting
a toxic reply immediately after a toxic comment is negatively associated with
users posting non-toxic replies and Twitter conversations becoming increasingly
toxic.
- Abstract(参考訳): 本研究では,Twitterの会話の毒性を形作るグループダイナミクスの力について検討する。
まず,会話における他者の存在が,有害な直接応答に対するtwitterユーザの責任を分散させる可能性について検討する。
第2に、会話における有害なツイートに対する最初の直接応答の毒性が、その後の応答に対するグループ規範を確立するかどうかを検討する。
このようにして、有害な応答に対する傍観者や初期反応のトーンが、他人が自分の虐待的あるいは軽蔑的な反応を投稿することを妨げないと感じているかどうかに影響を及ぼす説明的要因を概説する。
この前提を、約9kの会話に属する156万以上のツイートのランダムなサンプルを分析してテストする。
この研究の中心は、「傍観者効果」に関する社会的心理学的研究であり、傍観者の存在は社会的状況のダイナミクスを変える力を持っている。
最初の直接応答が分割音を再確認した場合、他の応答は従うことができる。
有毒なツイートを受ける前に会話に参加するユーザーの数が増加することは、無毒な方法で有毒な返信に反応するtwitterユーザーの数に負の相関があることを示している。
また、会話の中で有害なツイートに対する最初の反応が非常に重要であることもわかりました。
有害なコメントの直後に有害な返信を投稿することは、有害でない返信やtwitterの会話を投稿するユーザーに負の関連がある。
関連論文リスト
- Analyzing Toxicity in Deep Conversations: A Reddit Case Study [0.0]
この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
論文 参考訳(メタデータ) (2024-04-11T16:10:44Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically
Polarized Posts on Twitter [4.357949911556638]
政治イデオロギーが個人のユーザレベルとTwitterのトピックレベルの両方で毒性に寄与する役割について検討する。
55,415人のTwitterユーザーから1億8700万のツイートを集めた結果、政治イデオロギーやアカウント年齢などのアカウントレベルの特徴が、各ユーザーが有害コンテンツを投稿する頻度を予測する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - User Engagement and the Toxicity of Tweets [1.1339580074756188]
我々は85,300件以上のTwitter会話のランダムなサンプルを分析し、有毒な会話と非有毒な会話の違いを調べる。
有毒な会話(少なくとも1つの有毒なツイートを持つ会話)は、長いが、無害な会話に比べて、個人ユーザーが会話に貢献する割合は少ない。
また、有害なツイートに対する最初の応答の毒性と会話の毒性との関係も調べる。
論文 参考訳(メタデータ) (2022-11-07T20:55:22Z) - Twitter Users' Behavioral Response to Toxic Replies [1.2387676601792899]
我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
論文 参考訳(メタデータ) (2022-10-24T17:36:58Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - The Structure of Toxic Conversations on Twitter [10.983958397797847]
Twitter上での会話における構造と毒性の関係について検討した。
個人レベルでは、毒性は多くの低レベルから中程度の有害なユーザーに分散している。
グループレベルでは、有害な会話はより大きく、より広く、より深い応答木を持つ傾向にある。
論文 参考訳(メタデータ) (2021-05-25T01:18:02Z) - Understanding the Hoarding Behaviors during the COVID-19 Pandemic using
Large Scale Social Media Data [77.34726150561087]
われわれは、2020年3月1日から4月30日まで、米国で4万2000人以上のユニークTwitterユーザーによる嫌がらせと反嫌悪のパターンを分析した。
ホアーディンググループと反ホアーディンググループの両方の女性の比率が、一般のTwitter利用者の比率よりも高いことがわかりました。
LIWCの不安度はTwitterの不安度よりもかなり高い。
論文 参考訳(メタデータ) (2020-10-15T16:02:25Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。