論文の概要: SalamNET at SemEval-2020 Task12: Deep Learning Approach for Arabic
Offensive Language Detection
- arxiv url: http://arxiv.org/abs/2007.13974v1
- Date: Tue, 28 Jul 2020 03:47:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 01:36:38.784904
- Title: SalamNET at SemEval-2020 Task12: Deep Learning Approach for Arabic
Offensive Language Detection
- Title(参考訳): SalamNET at SemEval-2020 Task12: Deep Learning Approach for Arabic Offensive Language Detection (英語)
- Authors: Fatemah Husain, Jooyeon Lee, Samuel Henry, and Ozlem Uzuner
- Abstract要約: 本稿では,SamEval 2020 Task 12: Multilingual Offensive Language Identification in Social Mediaに提出されたアラビア語攻撃言語検出システムであるSalamNETについて述べる。
提案手法では,複数の深層学習モデルを適用し,結果の深さ誤差解析を行う。
SalamNETは双方向Gated Recurrent Unit (Bi-GRU)ベースのモデルで、マクロF1スコアは0.83である。
- 参考スコア(独自算出の注目度): 0.5413132875192255
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes SalamNET, an Arabic offensive language detection system
that has been submitted to SemEval 2020 shared task 12: Multilingual Offensive
Language Identification in Social Media. Our approach focuses on applying
multiple deep learning models and conducting in depth error analysis of results
to provide system implications for future development considerations. To pursue
our goal, a Recurrent Neural Network (RNN), a Gated Recurrent Unit (GRU), and
Long-Short Term Memory (LSTM) models with different design architectures have
been developed and evaluated. The SalamNET, a Bi-directional Gated Recurrent
Unit (Bi-GRU) based model, reports a macro-F1 score of 0.83.
- Abstract(参考訳): 本稿では,sameval 2020 share task 12: multilingual offensive language identification in social media に提出されたアラビア語攻撃言語検出システム salamnet について述べる。
提案手法は,複数の深層学習モデルを適用し,結果の深度誤差解析を行い,今後の開発課題にシステムの影響を与える。
我々の目標を達成するために、異なる設計アーキテクチャを持つリカレントニューラルネットワーク(RNN)、GRU(Gated Recurrent Unit)、LSTM(Long-Short Term Memory)モデルを開発し、評価した。
SalamNETは双方向Gated Recurrent Unit (Bi-GRU)ベースのモデルで、マクロF1スコアは0.83である。
関連論文リスト
- Towards Building Text-To-Speech Systems for the Next Billion Users [18.290165216270452]
そこで我々は,ドラヴィダ語とインド・アーリア語に対する音響モデル,ボコーダ,補足的損失関数,訓練スケジュール,話者および言語多様性の選択について検討した。
我々は,13言語を対象としたTSモデルをトレーニングし,評価し,各言語における既存のモデルを大幅に改善するモデルを見出した。
論文 参考訳(メタデータ) (2022-11-17T13:59:34Z) - mGPT: Few-Shot Learners Go Multilingual [1.4354798873010843]
本稿では,60言語で訓練された13億のパラメータと13億のパラメータを持つ2つの自己回帰型GPT様モデルを提案する。
我々はGPT-2ソースとスパースアテンション機構を用いてGPT-3アーキテクチャを再現する。
その結果得られたモデルは、Facebookが最近リリースしたXGLMモデルと同等のパフォーマンスを示している。
論文 参考訳(メタデータ) (2022-04-15T13:02:33Z) - Scaling Language Models: Methods, Analysis & Insights from Training
Gopher [83.98181046650664]
本稿では,トランスフォーマーに基づく言語モデルの性能を,幅広いモデルスケールで解析する。
スケールからのゲインは、理解、事実確認、有害言語の同定などにおいて最大である。
我々は、AIの安全性と下流の害の軽減に対する言語モデルの適用について論じる。
論文 参考訳(メタデータ) (2021-12-08T19:41:47Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z) - Combining Deep Learning and String Kernels for the Localization of Swiss
German Tweets [28.497747521078647]
2番目のサブタスクは、約3万のスイスのドイツのJodelからなるデータセットをターゲットにしています。
我々は、このタスクを2重回帰問題とみなし、緯度と経度の両方を予測するために、さまざまな機械学習アプローチを採用している。
実験結果から,文字列カーネルに基づく手作りモデルの方が,ディープラーニングのアプローチよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-10-07T19:16:45Z) - Multi-timescale Representation Learning in LSTM Language Models [69.98840820213937]
言語モデルは、非常に短いから非常に長いまでの時間スケールで単語間の統計的依存関係を捉えなければならない。
我々は、長期記憶言語モデルにおけるメモリゲーティング機構が、パワーローの減衰を捉えることができるかの理論を導出した。
実験の結果,自然言語で学習したLSTM言語モデルは,この理論分布を近似することがわかった。
論文 参考訳(メタデータ) (2020-09-27T02:13:38Z) - Deep Learning based, end-to-end metaphor detection in Greek language
with Recurrent and Convolutional Neural Networks [0.0]
本稿では,ギリシャ語におけるメタファ検出のための,エンドツーエンドのDeep Learningベースモデルを多数提示し,ベンチマークする。
畳み込みニューラルネットワークとリカレントニューラルネットワークと表現学習を組み合わせることで,ギリシャ語のメタファ検出問題に対処する。
論文 参考訳(メタデータ) (2020-07-23T12:02:40Z) - A Bayesian Multilingual Document Model for Zero-shot Topic Identification and Discovery [1.9215779751499527]
モデルは多言語シナリオへの BaySMM [Kesiraju et al 2020] の拡張である。
学習した不確実性を線形分類器で伝達し、ゼロショットの言語間話題識別に役立てる。
我々は、現在のデータセットを深く掘り下げることで、ゼロショット設定での言語間トピックの識別を再考する。
論文 参考訳(メタデータ) (2020-07-02T19:55:08Z) - Rnn-transducer with language bias for end-to-end Mandarin-English
code-switching speech recognition [58.105818353866354]
本稿では,言語バイアスを考慮したリカレントニューラルネットワークトランスデューサ(RNN-T)モデルを提案する。
我々は、CSの点を予測するためにモデルにバイアスを与えるために、言語アイデンティティを使用する。
これにより、言語識別情報を転写から直接学習するモデルが促進され、追加のLIDモデルが不要になる。
論文 参考訳(メタデータ) (2020-02-19T12:01:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。