論文の概要: KUISAIL at SemEval-2020 Task 12: BERT-CNN for Offensive Speech
Identification in Social Media
- arxiv url: http://arxiv.org/abs/2007.13184v1
- Date: Sun, 26 Jul 2020 17:26:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 19:52:35.859237
- Title: KUISAIL at SemEval-2020 Task 12: BERT-CNN for Offensive Speech
Identification in Social Media
- Title(参考訳): KUISAIL at SemEval-2020 Task 12: BERT-CNN for Offensive Speech Identification in Social Media (英語)
- Authors: Ali Safaya, Moutasem Abdullatif, Deniz Yuret
- Abstract要約: 我々は,CNNとBERTを組み合わせる方が,BERTを単独で使用するよりも優れていることを示す。
本稿では、アラビア語のための事前訓練されたトランスフォーマー言語モデルであるアラビアBERTを紹介する。
- 参考スコア(独自算出の注目度): 0.2148535041822524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we describe our approach to utilize pre-trained BERT models
with Convolutional Neural Networks for sub-task A of the Multilingual Offensive
Language Identification shared task (OffensEval 2020), which is a part of the
SemEval 2020. We show that combining CNN with BERT is better than using BERT on
its own, and we emphasize the importance of utilizing pre-trained language
models for downstream tasks. Our system, ranked 4th with macro averaged
F1-Score of 0.897 in Arabic, 4th with score of 0.843 in Greek, and 3rd with
score of 0.814 in Turkish. Additionally, we present ArabicBERT, a set of
pre-trained transformer language models for Arabic that we share with the
community.
- Abstract(参考訳): 本稿では,SemEval 2020の一部である多言語攻撃言語識別共有タスク(OffensEval 2020)のサブタスクAに,畳み込みニューラルネットワークを用いた事前学習BERTモデルを利用するアプローチについて述べる。
我々は,CNN と BERT を単独で使用するよりも,CNN と BERT を組み合わせる方がよいことを示す。
第4位がマクロで平均0.897点、第4位がギリシャ語0.843点、第3位がトルコ語0.814点であった。
さらに、コミュニティと共有するアラビア語のための事前訓練されたトランスフォーマー言語モデルであるアラビアBERTを提示する。
関連論文リスト
- E-TSL: A Continuous Educational Turkish Sign Language Dataset with Baseline Methods [2.0257616108612373]
本研究は,5年生,6年生,8年生を対象に,オンライントルコ語授業から収集した連続的トルコ手話データセットについて紹介する。
データセットは、合計24時間近くの1,410本のビデオで構成され、11人の署名者によるパフォーマンスを含んでいる。
特に64%がシングルトン語、85%がまれな単語で、5回未満の出現である。
論文 参考訳(メタデータ) (2024-05-05T16:07:23Z) - From English to More Languages: Parameter-Efficient Model Reprogramming
for Cross-Lingual Speech Recognition [50.93943755401025]
言語間音声認識のためのニューラルモデル再プログラミングに基づく新しいパラメータ効率学習フレームワークを提案する。
我々は、学習可能な事前学習機能強化に焦点を当てた、異なる補助的ニューラルネットワークアーキテクチャを設計する。
提案手法は,既存のASRチューニングアーキテクチャとその拡張性能を自己監督的損失で向上させる。
論文 参考訳(メタデータ) (2023-01-19T02:37:56Z) - BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - Tencent AI Lab - Shanghai Jiao Tong University Low-Resource Translation
System for the WMT22 Translation Task [49.916963624249355]
本稿では, Tencent AI Lab - Shanghai Jiao Tong University (TAL-SJTU) Low-Resource Translation system for the WMT22 shared taskについて述べる。
我々は、英語$Leftrightarrow$Livonianの一般的な翻訳作業に参加する。
本システムは,M2M100を対象言語に適応させる新しい手法を用いて構築した。
論文 参考訳(メタデータ) (2022-10-17T04:34:09Z) - UPB at SemEval-2020 Task 12: Multilingual Offensive Language Detection
on Social Media by Fine-tuning a Variety of BERT-based Models [0.0]
本稿では,Twitter上の攻撃的言語を5言語で識別するTransformerベースのソリューションについて述べる。
これは、Offenseval 2020のSubtask Aの共有タスクで使用された。
論文 参考訳(メタデータ) (2020-10-26T14:28:29Z) - PUM at SemEval-2020 Task 12: Aggregation of Transformer-based models'
features for offensive language recognition [0.0]
我々のチームは、サブタスクCで40中7位、64.727%のマクロF1スコア、85中64中64位、攻撃言語識別(89.726%のF1スコア)にランク付けされた。
論文 参考訳(メタデータ) (2020-10-05T10:25:29Z) - ANDES at SemEval-2020 Task 12: A jointly-trained BERT multilingual model
for offensive language detection [0.6445605125467572]
我々は,提案言語にまたがる課題に対処するために,多言語BERTを微調整した単一モデルを共同で訓練した。
私たちの単一モデルは、最高のパフォーマンスシステムに近いパフォーマンスで、競争力のある結果を得ました。
論文 参考訳(メタデータ) (2020-08-13T16:07:00Z) - ConvBERT: Improving BERT with Span-based Dynamic Convolution [144.25748617961082]
BERTはグローバルな自己保持ブロックに大きく依存しているため、大きなメモリフットプリントと計算コストに悩まされる。
そこで本研究では,これらの自己注意型ヘッドを置き換え,局所的依存関係を直接モデル化する,スパンベースの動的畳み込みを提案する。
新たな畳み込み頭は、他の自己注意頭と共に、グローバルな文脈学習とローカルな文脈学習の両方においてより効率的である、新しい混合注意ブロックを形成する。
論文 参考訳(メタデータ) (2020-08-06T07:43:19Z) - DeBERTa: Decoding-enhanced BERT with Disentangled Attention [119.77305080520718]
2つの新しい手法を用いてBERTモデルとRoBERTaモデルを改善する新しいモデルアーキテクチャDeBERTaを提案する。
これらの手法により,モデル事前学習の効率化と,自然言語理解(NLU)と自然言語生成(NLG)の両方の性能向上が期待できる。
論文 参考訳(メタデータ) (2020-06-05T19:54:34Z) - LIIR at SemEval-2020 Task 12: A Cross-Lingual Augmentation Approach for
Multilingual Offensive Language Identification [19.23116755449024]
我々は、英語と非英語でそれぞれGoogle AIが利用可能なBERTとMultilingual Bertモデルを適応し、微調整する。
英語では2つの細調整されたBERTモデルの組み合わせを使用します。
他の言語に対して、トレーニングデータを豊かにするための言語間拡張手法を提案し、多言語BERTを用いて文表現を得る。
論文 参考訳(メタデータ) (2020-05-07T18:45:48Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。