論文の概要: Explain Thyself Bully: Sentiment Aided Cyberbullying Detection with
Explanation
- arxiv url: http://arxiv.org/abs/2401.09023v1
- Date: Wed, 17 Jan 2024 07:36:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:36:34.164263
- Title: Explain Thyself Bully: Sentiment Aided Cyberbullying Detection with
Explanation
- Title(参考訳): 自己いじめの説明: 感情がサイバーいじめの検出を助けた理由
- Authors: Krishanu Maity, Prince Jha, Raghav Jain, Sriparna Saha, Pushpak
Bhattacharyya
- Abstract要約: さまざまなソーシャルメディアネットワークやオンラインコミュニケーションアプリの人気により、サイバーいじめが大きな問題になっている。
一般データ保護規則の「説明の権利」のような近年の法律は、解釈可能なモデルの開発に拍車をかけた。
我々は,コード混在言語からの自動サイバーバブル検出のための,mExCBと呼ばれる最初の解釈可能なマルチタスクモデルを開発した。
- 参考スコア(独自算出の注目度): 52.3781496277104
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cyberbullying has become a big issue with the popularity of different social
media networks and online communication apps. While plenty of research is going
on to develop better models for cyberbullying detection in monolingual
language, there is very little research on the code-mixed languages and
explainability aspect of cyberbullying. Recent laws like "right to
explanations" of General Data Protection Regulation, have spurred research in
developing interpretable models rather than focusing on performance. Motivated
by this we develop the first interpretable multi-task model called {\em mExCB}
for automatic cyberbullying detection from code-mixed languages which can
simultaneously solve several tasks, cyberbullying detection,
explanation/rationale identification, target group detection and sentiment
analysis. We have introduced {\em BullyExplain}, the first benchmark dataset
for explainable cyberbullying detection in code-mixed language. Each post in
{\em BullyExplain} dataset is annotated with four labels, i.e., {\em bully
label, sentiment label, target and rationales (explainability)}, i.e., which
phrases are being responsible for annotating the post as a bully. The proposed
multitask framework (mExCB) based on CNN and GRU with word and sub-sentence
(SS) level attention is able to outperform several baselines and state of the
art models when applied on {\em BullyExplain} dataset.
- Abstract(参考訳): サイバーいじめは、さまざまなソーシャルメディアネットワークやオンラインコミュニケーションアプリの人気で大きな問題になっている。
モノリンガル言語によるサイバーいじめ検出のためのより良いモデルの開発は、多くの研究が進んでいるが、コード混在言語とサイバーいじめの説明可能性に関する研究はほとんどない。
一般データ保護規則の「説明の権利」のような最近の法律は、パフォーマンスよりも解釈可能なモデルを開発する研究を刺激している。
そこで本研究では,複数のタスクを同時に解くことができるコード混合言語からの自動サイバーバブル検出のための,最初の解釈可能なマルチタスクモデルである {\em mExCB} を開発した。
コード混合言語におけるサイバーいじめ検出のための最初のベンチマークデータセットである {\em bullyexplain} を導入した。
データセットのそれぞれの投稿には4つのラベル、すなわち、いじめラベル、感情ラベル、目標と合理性(説明可能性)、すなわち、どのフレーズがいじめとして投稿に注釈を付けるのかという注釈が付けられている。
CNN と GRU をベースとしたマルチタスクフレームワーク (mExCB) はワード・サブ文(SS) レベルでの注目度が,.em BullyExplain} データセットに適用した場合に,いくつかのベースラインや技術モデルの状態を上回り得る。
関連論文リスト
- The Use of a Large Language Model for Cyberbullying Detection [0.0]
サイバーいじめ(CB)は、今日のサイバー世界で最も多い現象である。
これは市民の精神的および身体的健康に対する深刻な脅威である。
これにより、オンラインフォーラム、ブログ、ソーシャルメディアプラットフォームからいじめコンテンツを防ぐ堅牢なシステムを開発する必要が生じる。
論文 参考訳(メタデータ) (2024-02-06T15:46:31Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Cyberbullying Detection for Low-resource Languages and Dialects: Review
of the State of the Art [0.9831489366502298]
この論文では、バングラ語、ヒンディー語、ドラヴィダ語など、23の低資源言語と方言がカバーされている。
本調査では,サイバーいじめの信頼性定義の欠如を含む,過去の研究における研究ギャップのいくつかを明らかにした。
これらの提案に基づき,バングラのチタゴニア方言におけるサイバーいじめデータセットを収集,公開する。
論文 参考訳(メタデータ) (2023-08-30T03:52:28Z) - How to Solve Few-Shot Abusive Content Detection Using the Data We
Actually Have [83.93896701392238]
この作業では、すでに持っているデータセットを活用し、虐待的な言語検出に関連する幅広いタスクをカバーしています。
まず、マルチタスク方式でモデルをトレーニングし、ターゲット要件に数発の適応を実行する。
我々の実験は、既存のデータセットとターゲットタスクのほんの数ショットだけを活用することで、モデルの性能をモノリンガルだけでなく言語間でも改善できることを示した。
論文 参考訳(メタデータ) (2023-05-23T14:04:12Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Pseudo Siamese Network for Few-shot Intent Generation [54.10596778418007]
本稿では,偽シャムネットワーク (psn) を提案する。
psnは同じ構造で異なる重みを持つ2つの同一のワークから成り、アクションネットワークとオブジェクトネットワークである。
2つの実世界のデータセットの実験は、PSNが一般化された少数のショットインテント検出タスクの最先端のパフォーマンスを達成することを示しています。
論文 参考訳(メタデータ) (2021-05-03T14:30:47Z) - Analysing Cyberbullying using Natural Language Processing by
Understanding Jargon in Social Media [4.932130498861987]
本稿では,さまざまなソーシャルメディアプラットフォームからのデータセットの組み合わせを用いて,バイナリ分類について検討する。
我々は,Bi-LSTM,GloVe,BERTなどの最先端モデルなど複数のモデルを用いて実験を行い,スラング悪用コーパスを導入して独自の前処理手法を適用した。
論文 参考訳(メタデータ) (2021-04-23T04:20:19Z) - HENIN: Learning Heterogeneous Neural Interaction Networks for
Explainable Cyberbullying Detection on Social Media [11.443698975923176]
本稿では,サイバーバブル検出のための新しいディープモデルであるヘテロジニアス・ニューラル・インタラクション・ネットワーク(HENIN)を提案する。
HENINには、コメントエンコーダ、コミット後のコアテンションサブネットワーク、セッションセッションとポストのインタラクション抽出器が含まれる。
論文 参考訳(メタデータ) (2020-10-09T13:44:34Z) - Aggressive, Repetitive, Intentional, Visible, and Imbalanced: Refining
Representations for Cyberbullying Classification [4.945634077636197]
本研究では,その社会的・言語的側面を表現するために,5つの明確な要因を用いて,サイバーいじめのニュアンスな問題を考察する。
これらの結果は、サイバーいじめを社会現象として表現し、モデル化することの重要性を示している。
論文 参考訳(メタデータ) (2020-04-04T00:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。