論文の概要: Analyzing Toxicity in Deep Conversations: A Reddit Case Study
- arxiv url: http://arxiv.org/abs/2404.07879v1
- Date: Thu, 11 Apr 2024 16:10:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 13:20:46.408379
- Title: Analyzing Toxicity in Deep Conversations: A Reddit Case Study
- Title(参考訳): 深層会話における毒性の分析:Redditのケーススタディ
- Authors: Vigneshwaran Shankaran, Rajesh Sharma,
- Abstract要約: この研究は、公開会話設定における毒性に関するユーザがどのように振る舞うかを理解するために、ツリーベースのアプローチを採用する。
Redditの8つのコミュニティから上位100件の投稿とコメントのセクションを収集し、100万件以上の回答を得た。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online social media has become increasingly popular in recent years due to its ease of access and ability to connect with others. One of social media's main draws is its anonymity, allowing users to share their thoughts and opinions without fear of judgment or retribution. This anonymity has also made social media prone to harmful content, which requires moderation to ensure responsible and productive use. Several methods using artificial intelligence have been employed to detect harmful content. However, conversation and contextual analysis of hate speech are still understudied. Most promising works only analyze a single text at a time rather than the conversation supporting it. In this work, we employ a tree-based approach to understand how users behave concerning toxicity in public conversation settings. To this end, we collect both the posts and the comment sections of the top 100 posts from 8 Reddit communities that allow profanity, totaling over 1 million responses. We find that toxic comments increase the likelihood of subsequent toxic comments being produced in online conversations. Our analysis also shows that immediate context plays a vital role in shaping a response rather than the original post. We also study the effect of consensual profanity and observe overlapping similarities with non-consensual profanity in terms of user behavior and patterns.
- Abstract(参考訳): オンラインソーシャルメディアは、アクセスの容易さと他者との接続能力により、近年ますます人気が高まっている。
ソーシャルメディアの主な特徴の1つは匿名性であり、ユーザーは判断や帰属を恐れずに自分の考えや意見を共有できる。
この匿名性は、ソーシャルメディアを有害なコンテンツにしがみやすくし、責任と生産的利用を確保するためにモデレーションを必要とする。
有害なコンテンツを検出するために、人工知能を使ったいくつかの方法が用いられている。
しかし、ヘイトスピーチの会話と文脈分析はまだ検討されている。
ほとんどの有望な作業は、それをサポートする会話ではなく、一度に1つのテキストのみを分析する。
本研究では,公的な会話環境における有害性について,ユーザがどのように振る舞うかを理解するために,木に基づくアプローチを採用する。
この目的のために、Redditの8つのコミュニティから上位100記事のコメントセクションとコメントセクションを収集し、100万以上の回答を出している。
有毒なコメントは、その後の有毒なコメントがオンライン会話で生み出される可能性を高める。
我々の分析は、直近の文脈が元の投稿よりも応答を形作る上で重要な役割を担っていることも示しています。
また, ユーザ行動やパターンの観点から, 非合意的表現と重複する類似性を観察し, 合意的表現の効果についても検討した。
関連論文リスト
- Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - Classification of social media Toxic comments using Machine learning
models [0.0]
この要約は、ソーシャルメディアプラットフォームにおける有害なコメントの問題を概説している。
この行動は反社会的行動と呼ばれ、オンライン討論、コメント、戦いの間に起こる。
明示的な言語を含むコメントは、有毒、重篤な有毒、わいせつ、脅迫、侮辱、同一性嫌悪など、様々なカテゴリに分類される。
ユーザーを不快な言葉から守るために、企業はコメントを掲示し、ユーザーをブロックし始めた。
論文 参考訳(メタデータ) (2023-04-14T05:40:11Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Understanding the Bystander Effect on Toxic Twitter Conversations [1.1339580074756188]
会話における有害なツイートに対する最初の直接応答の毒性が、その後の応答に対するグループ規範を確立しているかどうかを検討する。
9kの会話に属する156k以上のツイートのランダムなサンプルを分析した。
論文 参考訳(メタデータ) (2022-11-19T18:31:39Z) - Twitter Users' Behavioral Response to Toxic Replies [1.2387676601792899]
我々は,Twitter上でのユーザのオンライン行動に及ぼす毒性の影響を検討した。
毒性の犠牲者は, 回避, 復讐, 対策, 交渉といった行動反応の組合せがみられた。
本研究は, ソーシャルメディア上での毒性の負の結果を低減するための, より効果的な検出・介入手法の開発において, さらなる研究を支援することができる。
論文 参考訳(メタデータ) (2022-10-24T17:36:58Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Online Hate: Behavioural Dynamics and Relationship with Misinformation [0.0]
YouTubeビデオに100万以上のコメントが寄せられたコーパスでヘイトスピーチ検出を行います。
我々の結果は、ゴドウィンの法則に則って、オンラインの議論は、ますます有害な意見交換へと縮退する傾向にあることを示している。
論文 参考訳(メタデータ) (2021-05-28T17:30:51Z) - Reading In-Between the Lines: An Analysis of Dissenter [2.2881898195409884]
我々は、あらゆるWebページに対して会話オーバーレイを提供するブラウザおよびWebアプリケーションであるDissenterについて研究する。
本研究では,議論中のDissenterコメントやユーザ,ウェブサイトの履歴を取得する。
私たちのコーパスは、101kユーザーが588kの異なるURLでコメントした約1.68万のコメントで構成されています。
論文 参考訳(メタデータ) (2020-09-03T16:25:28Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。