論文の概要: Leveraging Affective Bidirectional Transformers for Offensive Language
Detection
- arxiv url: http://arxiv.org/abs/2006.01266v1
- Date: Sat, 16 May 2020 04:55:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:23:56.867478
- Title: Leveraging Affective Bidirectional Transformers for Offensive Language
Detection
- Title(参考訳): 感情的双方向トランスフォーマーを用いた攻撃的言語検出
- Authors: AbdelRahim Elmadany, Chiyu Zhang, Muhammad Abdul-Mageed, Azadeh
Hashemi
- Abstract要約: 機能エンジニアリングを必要とせずに、純粋にディープラーニングシステムの開発に重点を置いています。
我々の最良のモデルはバニラBERTモデルよりも大幅に優れており、ヘイトスピーチでは89.60%のcc(7.31%のマクロF1)、公式のTESTデータでは95.20%のcc(70.51%のマクロF1)である。
- 参考スコア(独自算出の注目度): 7.09232719022402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media are pervasive in our life, making it necessary to ensure safe
online experiences by detecting and removing offensive and hate speech. In this
work, we report our submission to the Offensive Language and hate-speech
Detection shared task organized with the 4th Workshop on Open-Source Arabic
Corpora and Processing Tools Arabic (OSACT4). We focus on developing purely
deep learning systems, without a need for feature engineering. For that
purpose, we develop an effective method for automatic data augmentation and
show the utility of training both offensive and hate speech models off (i.e.,
by fine-tuning) previously trained affective models (i.e., sentiment and
emotion). Our best models are significantly better than a vanilla BERT model,
with 89.60% acc (82.31% macro F1) for hate speech and 95.20% acc (70.51% macro
F1) on official TEST data.
- Abstract(参考訳): ソーシャルメディアは私たちの生活に浸透しており、攻撃的、ヘイトスピーチを検知し排除することで、安全なオンライン体験を確保する必要がある。
本稿では,第4回オープンソース・アラビアコーパス・処理ツール・アラビアワークショップ(OSACT4)において,攻撃言語及びヘイトスピーチ検出共有タスクについて報告する。
機能エンジニアリングを必要とせずに、純粋にディープラーニングシステムの開発に注力します。
この目的のために,データ拡張を効果的に行う手法を開発し,先行訓練された感情モデル(感情と感情)から攻撃的・憎悪的音声モデルをオフに(すなわち微調整によって)訓練するの有用性を示す。
我々の最良のモデルはバニラ・バートモデルよりもかなり優れており、89.60%のacc (82.31%マクロf1)がヘイトスピーチ、95.20%のacc (70.51%マクロf1)が公式テストデータである。
関連論文リスト
- Bag of Tricks for Effective Language Model Pretraining and Downstream
Adaptation: A Case Study on GLUE [93.98660272309974]
このレポートでは、ジェネラル言語理解評価のリーダーボードに関するVega v1を簡潔に紹介します。
GLUEは、質問応答、言語受容性、感情分析、テキスト類似性、パラフレーズ検出、自然言語推論を含む9つの自然言語理解タスクのコレクションである。
最適化された事前学習と微調整の戦略により、13億のモデルは4/9タスクに新しい最先端のタスクを設定し、91.3の平均スコアを達成しました。
論文 参考訳(メタデータ) (2023-02-18T09:26:35Z) - Hate Speech and Offensive Language Detection using an Emotion-aware
Shared Encoder [1.8734449181723825]
ヘイトスピーチと攻撃的言語検出に関する既存の研究は、事前学習されたトランスフォーマーモデルに基づいて有望な結果をもたらす。
本稿では,他コーパスから抽出した外的感情特徴を組み合わせたマルチタスク共同学習手法を提案する。
以上の結果から,感情的な知識が,データセット間のヘイトスピーチや攻撃的言語をより確実に識別する上で有効であることが示唆された。
論文 参考訳(メタデータ) (2023-02-17T09:31:06Z) - From English to More Languages: Parameter-Efficient Model Reprogramming
for Cross-Lingual Speech Recognition [50.93943755401025]
言語間音声認識のためのニューラルモデル再プログラミングに基づく新しいパラメータ効率学習フレームワークを提案する。
我々は、学習可能な事前学習機能強化に焦点を当てた、異なる補助的ニューラルネットワークアーキテクチャを設計する。
提案手法は,既存のASRチューニングアーキテクチャとその拡張性能を自己監督的損失で向上させる。
論文 参考訳(メタデータ) (2023-01-19T02:37:56Z) - Toward Efficient Language Model Pretraining and Downstream Adaptation
via Self-Evolution: A Case Study on SuperGLUE [203.65227947509933]
このレポートでは、スーパーGLUEのリーダーボードにJDExplore d-teamのVega v2を提出しました。
SuperGLUEは、広く使われている汎用言語理解評価(GLUE)ベンチマークよりも難易度が高く、8つの難しい言語理解タスクを含んでいる。
論文 参考訳(メタデータ) (2022-12-04T15:36:18Z) - Multilingual Hate Speech and Offensive Content Detection using Modified
Cross-entropy Loss [0.0]
大規模な言語モデルは大量のデータに基づいてトレーニングされており、コンテキスト埋め込みも利用しています。
データのバランスもよくないので、修正されたクロスエントロピー損失を使ってこの問題に対処しました。
我々のチーム(HNLP)は、それぞれ英語サブタスクAと英語サブタスクBで0.808、0.639のマクロF1スコアを達成した。
論文 参考訳(メタデータ) (2022-02-05T20:31:40Z) - LaMDA: Language Models for Dialog Applications [75.75051929981933]
LaMDAは、ダイアログに特化したトランスフォーマーベースのニューラルネットワークモデルのファミリーである。
注釈付きデータで微調整し、モデルが外部の知識ソースを参照できるようにすると、大幅な改善がもたらされる。
論文 参考訳(メタデータ) (2022-01-20T15:44:37Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Offensive Language and Hate Speech Detection with Deep Learning and
Transfer Learning [1.77356577919977]
我々は、ツイートを自動的に3つのクラスに分類するアプローチを提案する。
我々は、テキスト分類、感情チェック、テキストデータ拡張を含む主要な機能を含むクラスモジュールを作成する。
論文 参考訳(メタデータ) (2021-08-06T20:59:47Z) - HASOCOne@FIRE-HASOC2020: Using BERT and Multilingual BERT models for
Hate Speech Detection [9.23545668304066]
ヘイトスピーチと攻撃的コンテンツを自動的に分類する手法を提案する。
FIRE 2019と2020の共有タスクから得られたデータセットを使用しました。
事前学習したBERTモデルと多言語BERTモデルが最良の結果となった。
論文 参考訳(メタデータ) (2021-01-22T08:55:32Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。