論文の概要: The Structure of Toxic Conversations on Twitter
- arxiv url: http://arxiv.org/abs/2105.11596v1
- Date: Tue, 25 May 2021 01:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 21:18:57.901787
- Title: The Structure of Toxic Conversations on Twitter
- Title(参考訳): Twitterにおける有害会話の構造
- Authors: Martin Saveski, Brandon Roy, Deb Roy
- Abstract要約: Twitter上での会話における構造と毒性の関係について検討した。
個人レベルでは、毒性は多くの低レベルから中程度の有害なユーザーに分散している。
グループレベルでは、有害な会話はより大きく、より広く、より深い応答木を持つ傾向にある。
- 参考スコア(独自算出の注目度): 10.983958397797847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms promise to enable rich and vibrant conversations
online; however, their potential is often hindered by antisocial behaviors. In
this paper, we study the relationship between structure and toxicity in
conversations on Twitter. We collect 1.18M conversations (58.5M tweets, 4.4M
users) prompted by tweets that are posted by or mention major news outlets over
one year and candidates who ran in the 2018 US midterm elections over four
months. We analyze the conversations at the individual, dyad, and group level.
At the individual level, we find that toxicity is spread across many low to
moderately toxic users. At the dyad level, we observe that toxic replies are
more likely to come from users who do not have any social connection nor share
many common friends with the poster. At the group level, we find that toxic
conversations tend to have larger, wider, and deeper reply trees, but sparser
follow graphs. To test the predictive power of the conversational structure, we
consider two prediction tasks. In the first prediction task, we demonstrate
that the structural features can be used to predict whether the conversation
will become toxic as early as the first ten replies. In the second prediction
task, we show that the structural characteristics of the conversation are also
predictive of whether the next reply posted by a specific user will be toxic or
not. We observe that the structural and linguistic characteristics of the
conversations are complementary in both prediction tasks. Our findings inform
the design of healthier social media platforms and demonstrate that models
based on the structural characteristics of conversations can be used to detect
early signs of toxicity and potentially steer conversations in a less toxic
direction.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、リッチで活気ある会話をオンラインで実現することを約束するが、その可能性はしばしば反社会的行動によって妨げられる。
本稿では,twitter上での会話における構造と毒性の関係について検討する。
1年間で1億1800万の会話(ツイート5850万、ユーザー440万)を収集し、主要なニュースメディアが投稿または言及したツイートと、2018年の米国中間選挙に4ヶ月以上出馬した候補者によって促された。
私たちは、個人、ダイナマイト、グループレベルでの会話を分析します。
個人レベルでは、毒性は多くの低レベルから中程度の有害なユーザーに分散している。
ダイアドレベルでは、有害な返信は、ソーシャルなつながりを持っていないユーザや、ポスターと多くの共通の友人を共有していないユーザから来る可能性が高い。
グループレベルでは、有害な会話はより大きく、より広く、より深い応答木を持つ傾向にあるが、スパーサーはグラフに従う。
会話構造の予測力をテストするために,2つの予測タスクを検討する。
第1の予測課題では,最初の10の応答で会話が有害になるかどうかを,構造的特徴を用いて予測できることを実証する。
第2の予測課題では,会話の構造的特徴が,特定のユーザによって投稿された次の応答が有害であるか否かを予測できることを示す。
いずれの予測課題においても,会話の構造的特徴と言語的特徴が相補的であることを観察する。
本研究は,より健全なソーシャルメディアプラットフォームの設計を示唆し,会話の構造的特徴に基づくモデルを用いて,早期に有毒な兆候を検知し,潜在的に有毒な方向で会話を制御できることを実証する。
関連論文リスト
- Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - NewsDialogues: Towards Proactive News Grounded Conversation [72.10055780635625]
本稿では,対話システムがニュースの重要な話題に基づいて会話を積極的にリードする新しいタスク,Proactive News Grounded Conversationを提案する。
この課題をさらに発展させるために、人間と人間の対話データセットtsNewsDialoguesを収集し、合計14.6Kの発話を含む1Kの会話を含む。
論文 参考訳(メタデータ) (2023-08-12T08:33:42Z) - Understanding Multi-Turn Toxic Behaviors in Open-Domain Chatbots [8.763670548363443]
新しい攻撃である毒物ボットは、多ターン会話において有毒な反応を生成するために開発された。
有害なボットは、産業と研究者の両方が会話における有害な反応を検出し緩和する方法を開発するために使用できる。
論文 参考訳(メタデータ) (2023-07-14T03:58:42Z) - Understanding the Bystander Effect on Toxic Twitter Conversations [1.1339580074756188]
会話における有害なツイートに対する最初の直接応答の毒性が、その後の応答に対するグループ規範を確立しているかどうかを検討する。
9kの会話に属する156k以上のツイートのランダムなサンプルを分析した。
論文 参考訳(メタデータ) (2022-11-19T18:31:39Z) - User Engagement and the Toxicity of Tweets [1.1339580074756188]
我々は85,300件以上のTwitter会話のランダムなサンプルを分析し、有毒な会話と非有毒な会話の違いを調べる。
有毒な会話(少なくとも1つの有毒なツイートを持つ会話)は、長いが、無害な会話に比べて、個人ユーザーが会話に貢献する割合は少ない。
また、有害なツイートに対する最初の応答の毒性と会話の毒性との関係も調べる。
論文 参考訳(メタデータ) (2022-11-07T20:55:22Z) - Revisiting Contextual Toxicity Detection in Conversations [28.465019968374413]
ヒトによる毒性のラベル付けは、一般的に、会話の構造、極性、文脈の話題に影響されている。
本稿では、文脈毒性検出のためのニューラルネットワークを導入して、これらの知見を計算検出モデルに適用することを提案する。
また、このようなモデルが、特にソーシャルメディア領域において、合成データの恩恵を受けることを実証した。
論文 参考訳(メタデータ) (2021-11-24T11:50:37Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Using Sentiment Information for Preemptive Detection of Toxic Comments
in Online Conversations [0.0]
一部の著者は、最初の数つのメッセージの特徴を使って会話が有害な状態に陥るかどうかを予測しようとした。
会話の最初のメッセージで表される感情が、今後の毒性を予測するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-06-17T20:41:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。