論文の概要: Detecting harassment and defamation in cyberbullying with emotion-adaptive training
- arxiv url: http://arxiv.org/abs/2501.16925v1
- Date: Tue, 28 Jan 2025 13:15:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:41:44.710504
- Title: Detecting harassment and defamation in cyberbullying with emotion-adaptive training
- Title(参考訳): 感情適応トレーニングによるサイバーいじめのハラスメントと悲惨さの検出
- Authors: Peiling Yi, Arkaitz Zubiaga, Yunfei Long,
- Abstract要約: サイバーいじめはデニグレーションやハラスメントなどの様々な形態を含み、有名人がしばしば直面する。
まず、ハラスメントと非難という2つの異なるタイプのインシデントを含む有名人のサイバーいじめデータセットを開発する。
本稿では,感情検出領域からサイバーいじめ検出領域への知識伝達を支援する感情適応トレーニングフレームワーク(EAT)を提案する。
- 参考スコア(独自算出の注目度): 10.769252194833625
- License:
- Abstract: Existing research on detecting cyberbullying incidents on social media has primarily concentrated on harassment and is typically approached as a binary classification task. However, cyberbullying encompasses various forms, such as denigration and harassment, which celebrities frequently face. Furthermore, suitable training data for these diverse forms of cyberbullying remains scarce. In this study, we first develop a celebrity cyberbullying dataset that encompasses two distinct types of incidents: harassment and defamation. We investigate various types of transformer-based models, namely masked (RoBERTa, Bert and DistilBert), replacing(Electra), autoregressive (XLnet), masked&permuted (Mpnet), text-text (T5) and large language models (Llama2 and Llama3) under low source settings. We find that they perform competitively on explicit harassment binary detection. However, their performance is substantially lower on harassment and denigration multi-classification tasks. Therefore, we propose an emotion-adaptive training framework (EAT) that helps transfer knowledge from the domain of emotion detection to the domain of cyberbullying detection to help detect indirect cyberbullying events. EAT consistently improves the average macro F1, precision and recall by 20% in cyberbullying detection tasks across nine transformer-based models under low-resource settings. Our claims are supported by intuitive theoretical insights and extensive experiments.
- Abstract(参考訳): ソーシャルメディア上でのサイバーいじめ事件の検出に関する既存の研究は、主にハラスメントに集中しており、通常は二元分類タスクとしてアプローチされている。
しかし、サイバーいじめにはデニグレーションやハラスメントなど様々な形態があり、有名人が頻繁に直面する。
さらに、これらの多様なサイバーいじめに対する適切なトレーニングデータはほとんど残っていない。
本研究ではまず,ハラスメントとデファストレーションという2つの異なるタイプのインシデントを含む有名人のサイバーいじめデータセットを開発する。
我々は,様々なトランスフォーマーモデル(RoBERTa, Bert, DistilBert),置換(Electra),自己回帰(XLnet),マスク&パーミュート(Mpnet),テキストテキスト(T5),大規模言語モデル(Llama2,Llama3)について検討する。
明示的なハラスメントのバイナリ検出に競争力があることがわかった。
しかし、ハラスメントやデニグレーションのマルチクラス化タスクではパフォーマンスが大幅に低下する。
そこで本稿では,感情検出領域からサイバーいじめ検出領域への知識伝達を支援する感情適応トレーニングフレームワーク(EAT)を提案する。
EATは、平均的なマクロF1、精度、リコールを、低リソース設定下で9つのトランスフォーマーベースのモデルに対して20%改善する。
我々の主張は直感的な理論的洞察と広範な実験によって裏付けられている。
関連論文リスト
- Detecting LGBTQ+ Instances of Cyberbullying [3.5723815685584013]
サイバーいじめは、世界中の青少年にとって重大な脅威となる。
LGBTQ+のコミュニティは特に危険にさらされており、研究者はLGBTQ+の特定とオンラインハラスメントの増大との間に強い相関関係があることを発見した。
LGBTQ+のメンバーに起きたサイバーいじめ事件を正確に識別できる機械学習モデルを開発することは重要である。
論文 参考訳(メタデータ) (2024-09-18T18:49:55Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Explain Thyself Bully: Sentiment Aided Cyberbullying Detection with
Explanation [52.3781496277104]
さまざまなソーシャルメディアネットワークやオンラインコミュニケーションアプリの人気により、サイバーいじめが大きな問題になっている。
一般データ保護規則の「説明の権利」のような近年の法律は、解釈可能なモデルの開発に拍車をかけた。
我々は,コード混在言語からの自動サイバーバブル検出のための,mExCBと呼ばれる最初の解釈可能なマルチタスクモデルを開発した。
論文 参考訳(メタデータ) (2024-01-17T07:36:22Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Analysing Cyberbullying using Natural Language Processing by
Understanding Jargon in Social Media [4.932130498861987]
本稿では,さまざまなソーシャルメディアプラットフォームからのデータセットの組み合わせを用いて,バイナリ分類について検討する。
我々は,Bi-LSTM,GloVe,BERTなどの最先端モデルなど複数のモデルを用いて実験を行い,スラング悪用コーパスを導入して独自の前処理手法を適用した。
論文 参考訳(メタデータ) (2021-04-23T04:20:19Z) - Enhancing the Identification of Cyberbullying through Participant Roles [1.399948157377307]
本稿では,ロールモデリングによるサイバーバブル検出の高度化に向けた新しいアプローチを提案する。
我々は、ASKfmからのデータセットを利用してマルチクラス分類を行い、参加者の役割を検出する。
論文 参考訳(メタデータ) (2020-10-13T19:13:07Z) - Aggressive, Repetitive, Intentional, Visible, and Imbalanced: Refining
Representations for Cyberbullying Classification [4.945634077636197]
本研究では,その社会的・言語的側面を表現するために,5つの明確な要因を用いて,サイバーいじめのニュアンスな問題を考察する。
これらの結果は、サイバーいじめを社会現象として表現し、モデル化することの重要性を示している。
論文 参考訳(メタデータ) (2020-04-04T00:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。