論文の概要: Automated Detection of Cyberbullying Against Women and Immigrants and
Cross-domain Adaptability
- arxiv url: http://arxiv.org/abs/2012.02565v1
- Date: Fri, 4 Dec 2020 13:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:44:01.757151
- Title: Automated Detection of Cyberbullying Against Women and Immigrants and
Cross-domain Adaptability
- Title(参考訳): 女性・移民に対するサイバーいじめの自動検出とクロスドメイン適応性
- Authors: Thushari Atapattu, Mahen Herath, Georgia Zhang, Katrina Falkner
- Abstract要約: 本稿では,最先端のNLP技術を用いた技術の進歩に焦点を当てる。
SemEval 2019 - Task 5(HatEval)のTwitterデータセットを、女性や移民に対するヘイトスピーチに使用しています。
ヘイトスピーチの分類におけるF1スコアの0.73と0.74を達成した。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cyberbullying is a prevalent and growing social problem due to the surge of
social media technology usage. Minorities, women, and adolescents are among the
common victims of cyberbullying. Despite the advancement of NLP technologies,
the automated cyberbullying detection remains challenging. This paper focuses
on advancing the technology using state-of-the-art NLP techniques. We use a
Twitter dataset from SemEval 2019 - Task 5(HatEval) on hate speech against
women and immigrants. Our best performing ensemble model based on DistilBERT
has achieved 0.73 and 0.74 of F1 score in the task of classifying hate speech
(Task A) and aggressiveness and target (Task B) respectively. We adapt the
ensemble model developed for Task A to classify offensive language in external
datasets and achieved ~0.7 of F1 score using three benchmark datasets, enabling
promising results for cross-domain adaptability. We conduct a qualitative
analysis of misclassified tweets to provide insightful recommendations for
future cyberbullying research.
- Abstract(参考訳): ソーシャルメディア技術の利用が急増しているため、サイバーいじめは社会問題として広まりつつある。
少数派、女性、青年はサイバーいじめの一般的な犠牲者である。
nlp技術の進歩にもかかわらず、自動サイバーいじめ検出は依然として困難である。
本稿では,最先端NLP技術を用いた技術の進歩に焦点を当てる。
SemEval 2019 - Task 5(HatEval)のTwitterデータセットを、女性や移民に対するヘイトスピーチに使用しています。
ヘイトスピーチ(タスクA)とアグレッシブネス(タスクB)をそれぞれ分類する作業において,DistilBERTに基づくベストパフォーマンスアンサンブルモデルにおいて,F1スコアの0.73と0.74を達成している。
タスクa用に開発されたアンサンブルモデルを用いて,外部データセットにおける攻撃的言語を分類し,3つのベンチマークデータセットを用いてf1スコアの0.7以下を達成した。
我々は、将来のサイバーいじめ研究のための洞察に富んだレコメンデーションを提供するために、誤分類されたツイートの質的分析を行う。
関連論文リスト
- Sentiment Analysis of Cyberbullying Data in Social Media [0.0]
我々の研究は、ソーシャルメディア投稿におけるいじめの痕跡を検出するために、ディープラーニングと自然言語理解技術を活用することに焦点を当てている。
1つのアプローチではBERT埋め込みを使用し、もう1つはOpenAIから最近リリースされた埋め込みAPIに埋め込みレイヤを置き換える。
フォームスプリング型サイバーバブルデータにおける感情分析の有効性を評価するために,これらの2つの手法の性能比較を行った。
論文 参考訳(メタデータ) (2024-11-08T20:41:04Z) - SWE2: SubWord Enriched and Significant Word Emphasized Framework for Hate Speech Detection [3.0460060805145517]
本稿では,メッセージの内容のみに依存し,ヘイトスピーチを自動的に識別するSWE2という新しいヘイトスピーチ検出フレームワークを提案する。
実験結果から,提案モデルでは0.975の精度と0.953のマクロF1が達成され,最先端の7つのベースラインを上回った。
論文 参考訳(メタデータ) (2024-09-25T07:05:44Z) - ThangDLU at #SMM4H 2024: Encoder-decoder models for classifying text data on social disorders in children and adolescents [49.00494558898933]
本稿では,#SMM4H (Social Media Mining for Health) 2024 Workshopのタスク3とタスク5への参加について述べる。
タスク3は、屋外環境が社会不安の症状に与える影響を議論するツイートを中心にした多クラス分類タスクである。
タスク5は、子供の医学的障害を報告しているツイートに焦点を当てたバイナリ分類タスクを含む。
BART-baseやT5-smallのような事前訓練されたエンコーダデコーダモデルからの転送学習を適用し、与えられたツイートの集合のラベルを同定した。
論文 参考訳(メタデータ) (2024-04-30T17:06:20Z) - Explain Thyself Bully: Sentiment Aided Cyberbullying Detection with
Explanation [52.3781496277104]
さまざまなソーシャルメディアネットワークやオンラインコミュニケーションアプリの人気により、サイバーいじめが大きな問題になっている。
一般データ保護規則の「説明の権利」のような近年の法律は、解釈可能なモデルの開発に拍車をかけた。
我々は,コード混在言語からの自動サイバーバブル検出のための,mExCBと呼ばれる最初の解釈可能なマルチタスクモデルを開発した。
論文 参考訳(メタデータ) (2024-01-17T07:36:22Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - AlexU-AIC at Arabic Hate Speech 2022: Contrast to Classify [2.9220076568786326]
アラビア・ヘイトスピーチ2022共有タスクワークショップ(OSACT52022)に、関連するアラビア・Twitterデータセットを用いて提出する。
攻撃的なツイートに関しては、サブタスクBは、ツイートがヘイトスピーチであるか否かを検出することに焦点を当てている。
ヘイトスピーチのつぶやきに対して、サブタスクCは6つの異なるクラス間のきめ細かいタイプのヘイトスピーチを検出することに重点を置いている。
論文 参考訳(メタデータ) (2022-07-18T12:33:51Z) - Analysing Cyberbullying using Natural Language Processing by
Understanding Jargon in Social Media [4.932130498861987]
本稿では,さまざまなソーシャルメディアプラットフォームからのデータセットの組み合わせを用いて,バイナリ分類について検討する。
我々は,Bi-LSTM,GloVe,BERTなどの最先端モデルなど複数のモデルを用いて実験を行い,スラング悪用コーパスを導入して独自の前処理手法を適用した。
論文 参考訳(メタデータ) (2021-04-23T04:20:19Z) - Enhancing the Identification of Cyberbullying through Participant Roles [1.399948157377307]
本稿では,ロールモデリングによるサイバーバブル検出の高度化に向けた新しいアプローチを提案する。
我々は、ASKfmからのデータセットを利用してマルチクラス分類を行い、参加者の役割を検出する。
論文 参考訳(メタデータ) (2020-10-13T19:13:07Z) - Cross-ethnicity Face Anti-spoofing Recognition Challenge: A Review [79.49390241265337]
Chalearn Face Anti-Spoofing Detection Challengeは、シングルモーダル(例えば、RGB)とマルチモーダル(例えば、RGB、Depth、赤外線(IR))のトラックで構成されている。
本稿では,その設計,評価プロトコル,結果の概要など,課題の概要について述べる。
論文 参考訳(メタデータ) (2020-04-23T06:43:08Z) - Characterizing Speech Adversarial Examples Using Self-Attention U-Net
Enhancement [102.48582597586233]
本稿では,U-Net$_At$という,U-Netに基づくアテンションモデルを提案する。
対戦型音声アタックを用いた自動音声認識(ASR)タスクの実験を行った。
論文 参考訳(メタデータ) (2020-03-31T02:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。