論文の概要: Grounding Toxicity in Real-World Events across Languages
- arxiv url: http://arxiv.org/abs/2405.13754v1
- Date: Wed, 22 May 2024 15:38:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 23:25:17.878888
- Title: Grounding Toxicity in Real-World Events across Languages
- Title(参考訳): 言語間のリアルタイムイベントにおける接地毒性
- Authors: Wondimagegnhue Tsegaye Tufa, Ilia Markov, Piek Vossen,
- Abstract要約: 選挙や紛争のような現実世界の出来事は、オンラインで有害な行動を起こし、エスカレートする。
Redditのデータは、6つの言語で3万3千件の投稿から45万件のコメントを集めた。
有害性,否定的感情,感情表現の有意な変動を様々な事象や言語コミュニティで観察する。
- 参考スコア(独自算出の注目度): 2.5398014196797605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media conversations frequently suffer from toxicity, creating significant issues for users, moderators, and entire communities. Events in the real world, like elections or conflicts, can initiate and escalate toxic behavior online. Our study investigates how real-world events influence the origin and spread of toxicity in online discussions across various languages and regions. We gathered Reddit data comprising 4.5 million comments from 31 thousand posts in six different languages (Dutch, English, German, Arabic, Turkish and Spanish). We target fifteen major social and political world events that occurred between 2020 and 2023. We observe significant variations in toxicity, negative sentiment, and emotion expressions across different events and language communities, showing that toxicity is a complex phenomenon in which many different factors interact and still need to be investigated. We will release the data for further research along with our code.
- Abstract(参考訳): ソーシャルメディアの会話は、しばしば毒性に悩まされ、ユーザー、モデレーター、コミュニティ全体にとって重大な問題を引き起こしている。
選挙や紛争のような現実世界の出来事は、オンラインで有害な行動を起こし、エスカレートする。
本研究では,実世界の出来事が様々な言語や地域にわたるオンライン討論における毒性の起源と拡散にどのように影響するかを考察した。
Redditのデータは、6つの言語(オランダ語、英語、ドイツ語、アラビア語、トルコ語、スペイン語)で3万3千件の投稿から45万件のコメントを集めた。
2020年から2023年の間に起こった15の主要な社会・政治界イベントをターゲットにしています。
我々は、様々な事象や言語コミュニティにおける毒性、否定的感情、感情表現の有意な変化を観察し、毒性は多くの異なる要因が相互作用し、まだ調査する必要がある複雑な現象であることを示した。
コードとともに、さらなる研究のためのデータをリリースします。
関連論文リスト
- Characterization of Political Polarized Users Attacked by Language Toxicity on Twitter [3.0367864044156088]
本研究は,左,右,センター利用者の言語毒性フローを初めて調査することを目的とする。
5億件以上のTwitter投稿が調査された。
その結果、左派ユーザーは右派やセンター派よりもはるかに有毒な回答が得られた。
論文 参考訳(メタデータ) (2024-07-17T10:49:47Z) - Tracking Patterns in Toxicity and Antisocial Behavior Over User Lifetimes on Large Social Media Platforms [0.2630859234884723]
われわれはRedditとWikipediaの5億件近いコメントで14年間にわたって毒性を分析している。
Reddit上で最も有毒な行動は、最もアクティブなユーザーによって集計され、最も有毒な行動は、最もアクティブでないユーザーによって集計され、Wikipedia上で最も有毒な行動であることがわかった。
論文 参考訳(メタデータ) (2024-07-12T15:45:02Z) - The Constant in HATE: Analyzing Toxicity in Reddit across Topics and Languages [2.5398014196797605]
トクシック言語は、ソーシャルメディアプラットフォームにおいて現在も進行中の課題である。
本稿では,Redditの会話における毒性の多言語的・多言語的分析について述べる。
論文 参考訳(メタデータ) (2024-04-29T14:14:33Z) - Comprehensive Assessment of Toxicity in ChatGPT [49.71090497696024]
本研究は,ChatGPTの毒性を指導調整データセットを用いて評価する。
創作作業のプロンプトは 有害な反応を 引き起こす確率が 2倍になる
初期の研究で設計された、故意に有害なプロンプトは、もはや有害な反応を生じさせない。
論文 参考訳(メタデータ) (2023-11-03T14:37:53Z) - Twits, Toxic Tweets, and Tribal Tendencies: Trends in Politically
Polarized Posts on Twitter [4.357949911556638]
政治イデオロギーが個人のユーザレベルとTwitterのトピックレベルの両方で毒性に寄与する役割について検討する。
55,415人のTwitterユーザーから1億8700万のツイートを集めた結果、政治イデオロギーやアカウント年齢などのアカウントレベルの特徴が、各ユーザーが有害コンテンツを投稿する頻度を予測する。
論文 参考訳(メタデータ) (2023-07-19T17:24:47Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - User Engagement and the Toxicity of Tweets [1.1339580074756188]
我々は85,300件以上のTwitter会話のランダムなサンプルを分析し、有毒な会話と非有毒な会話の違いを調べる。
有毒な会話(少なくとも1つの有毒なツイートを持つ会話)は、長いが、無害な会話に比べて、個人ユーザーが会話に貢献する割合は少ない。
また、有害なツイートに対する最初の応答の毒性と会話の毒性との関係も調べる。
論文 参考訳(メタデータ) (2022-11-07T20:55:22Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - When a crisis strikes: Emotion analysis and detection during COVID-19 [96.03869351276478]
感情をラベル付けした1万ツイートのCovidEmoを紹介します。
事前学習された言語モデルがドメインや危機をまたいでどのように一般化するかを検討する。
論文 参考訳(メタデータ) (2021-07-23T04:07:14Z) - Analyzing COVID-19 on Online Social Media: Trends, Sentiments and
Emotions [44.92240076313168]
我々は、2020年1月20日から2020年5月11日までの間に、TwitterとWeiboの投稿に基づいて、アメリカ人と中国人の感情的な軌跡を分析した。
中国と国連の2つの非常に異なる国とは対照的に、異なる文化におけるCOVID-19に対する人々の見解に顕著な違いが浮かび上がっている。
我々の研究は、公共の感情やパンデミックに対する懸念をリアルタイムで明らかにするための計算的アプローチを提供し、政策立案者が人々のニーズをよりよく理解し、それによって最適な政策を立案するのに役立つ可能性がある。
論文 参考訳(メタデータ) (2020-05-29T09:24:38Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。