論文の概要: Cyberbullying or just Sarcasm? Unmasking Coordinated Networks on Reddit
- arxiv url: http://arxiv.org/abs/2410.20170v1
- Date: Sat, 26 Oct 2024 13:02:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:20:24.336333
- Title: Cyberbullying or just Sarcasm? Unmasking Coordinated Networks on Reddit
- Title(参考訳): サイバーいじめ? それともただのサルカズム? Redditで結束ネットワークを偽装
- Authors: Pinky Pamecha, Chaitya Shah, Divyam Jain, Kashish Gandhi, Kiran Bhowmick, Meera Narvekar,
- Abstract要約: サルカズムは サイバーいじめで 線を曖昧にできる 特に ネガティブな状況や 有害な状況で
本研究では,自然言語処理(NLP)と機械学習を用いて両者を区別するフレームワークを提案する。
Redditからスクラップされたカスタムデータセットを分析して、有害なコンテンツと皮肉を区別する精度95.15%を達成した。
- 参考スコア(独自算出の注目度): 0.3141085922386211
- License:
- Abstract: With the rapid growth of social media usage, a common trend has emerged where users often make sarcastic comments on posts. While sarcasm can sometimes be harmless, it can blur the line with cyberbullying, especially when used in negative or harmful contexts. This growing issue has been exacerbated by the anonymity and vast reach of the internet, making cyberbullying a significant concern on platforms like Reddit. Our research focuses on distinguishing cyberbullying from sarcasm, particularly where online language nuances make it difficult to discern harmful intent. This study proposes a framework using natural language processing (NLP) and machine learning to differentiate between the two, addressing the limitations of traditional sentiment analysis in detecting nuanced behaviors. By analyzing a custom dataset scraped from Reddit, we achieved a 95.15% accuracy in distinguishing harmful content from sarcasm. Our findings also reveal that teenagers and minority groups are particularly vulnerable to cyberbullying. Additionally, our research uncovers coordinated graphs of groups involved in cyberbullying, identifying common patterns in their behavior. This research contributes to improving detection capabilities for safer online communities.
- Abstract(参考訳): ソーシャルメディアの利用が急速に増加し、ユーザーが投稿に対して皮肉なコメントをすることがよくある傾向が現れた。
サルカズムは時として無害であることもあるが、特にネガティブまたは有害な文脈で使用される場合、サイバーいじめによって線をぼかすことがある。
この増加傾向はインターネットの匿名性や広範なリーチによって悪化し、Redditのようなプラットフォームにサイバーいじめが大きな懸念を抱いている。
我々の研究は、特にオンライン言語ニュアンスが有害な意図を識別することを困難にしているサルカズムとサイバーいじめを区別することに焦点を当てている。
本研究では、自然言語処理(NLP)と機械学習を用いて両者を区別し、ニュアンスな行動を検出する際の従来の感情分析の限界に対処する枠組みを提案する。
Redditからスクラップされたカスタムデータセットを分析して、有害なコンテンツと皮肉を区別する精度95.15%を達成した。
調査の結果、若者や少数民族は特にサイバーいじめに弱いことが判明した。
さらに、サイバーいじめに関わるグループの協調グラフを発見し、それらの行動の共通パターンを特定しました。
本研究は,より安全なオンラインコミュニティの検知能力の向上に寄与する。
関連論文リスト
- Securing Social Spaces: Harnessing Deep Learning to Eradicate Cyberbullying [1.8749305679160366]
サイバーいじめは ソーシャルメディアを使う人の心身の健康を害する深刻な問題だ
本稿は、サイバーいじめがいかに深刻か、そしてそれが被曝した個人にどのように影響するかを説明する。
オンライン空間の安全性を高めるために、より優れたサイバーいじめ検出方法を見つけることがいかに重要かを強調している。
論文 参考訳(メタデータ) (2024-04-01T20:41:28Z) - Explain Thyself Bully: Sentiment Aided Cyberbullying Detection with
Explanation [52.3781496277104]
さまざまなソーシャルメディアネットワークやオンラインコミュニケーションアプリの人気により、サイバーいじめが大きな問題になっている。
一般データ保護規則の「説明の権利」のような近年の法律は、解釈可能なモデルの開発に拍車をかけた。
我々は,コード混在言語からの自動サイバーバブル検出のための,mExCBと呼ばれる最初の解釈可能なマルチタスクモデルを開発した。
論文 参考訳(メタデータ) (2024-01-17T07:36:22Z) - Cyberbullying in Text Content Detection: An Analytical Review [0.0]
オンラインソーシャルネットワークは、自殺、摂食障害、サイバー犯罪、強制行動、不安、抑うつといった生命を脅かす状況へのユーザーの露出を増大させる。
サイバーいじめの問題を解決するため、既存の文献の多くは、要因を特定し、サイバーいじめに関連するテキスト的要因を理解するためのアプローチの開発に重点を置いている。
本稿では,サイバーバブル検出の理解を深めるために,総合的な文献レビューを行う。
論文 参考訳(メタデータ) (2023-03-18T21:23:06Z) - Sarcasm Detection Framework Using Emotion and Sentiment Features [62.997667081978825]
本研究では,感情と感情の特徴を取り入れたモデルを提案する。
我々のアプローチは、ソーシャルネットワークプラットフォームとオンラインメディアの4つのデータセットに対して、最先端の結果を得た。
論文 参考訳(メタデータ) (2022-11-23T15:14:44Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Cyberbullying Indicator as a Precursor to a Cyber Construct Development [0.0]
本研究では,観測可能な行動指標の同定に基づくサイバーいじめの枠組みを提案する。
研究は、30人の記者による自己管理計測装置を用いて、サイバーバブル構築の確率を観察した。
論文 参考訳(メタデータ) (2022-03-31T07:55:51Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - Analysing Cyberbullying using Natural Language Processing by
Understanding Jargon in Social Media [4.932130498861987]
本稿では,さまざまなソーシャルメディアプラットフォームからのデータセットの組み合わせを用いて,バイナリ分類について検討する。
我々は,Bi-LSTM,GloVe,BERTなどの最先端モデルなど複数のモデルを用いて実験を行い,スラング悪用コーパスを導入して独自の前処理手法を適用した。
論文 参考訳(メタデータ) (2021-04-23T04:20:19Z) - Racism is a Virus: Anti-Asian Hate and Counterspeech in Social Media
during the COVID-19 Crisis [51.39895377836919]
新型コロナウイルスは、アジアのコミュニティをターゲットにしたソーシャルメディア上で人種差別や憎悪を引き起こしている。
我々は、Twitterのレンズを通して、反アジアヘイトスピーチの進化と普及について研究する。
私たちは、14ヶ月にわたる反アジア的憎悪と反音声のデータセットとして最大となるCOVID-HATEを作成します。
論文 参考訳(メタデータ) (2020-05-25T21:58:09Z) - Aggressive, Repetitive, Intentional, Visible, and Imbalanced: Refining
Representations for Cyberbullying Classification [4.945634077636197]
本研究では,その社会的・言語的側面を表現するために,5つの明確な要因を用いて,サイバーいじめのニュアンスな問題を考察する。
これらの結果は、サイバーいじめを社会現象として表現し、モデル化することの重要性を示している。
論文 参考訳(メタデータ) (2020-04-04T00:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。