論文の概要: A Feature Extraction based Model for Hate Speech Identification
- arxiv url: http://arxiv.org/abs/2201.04227v1
- Date: Tue, 11 Jan 2022 22:53:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-13 14:16:26.852292
- Title: A Feature Extraction based Model for Hate Speech Identification
- Title(参考訳): ヘイト音声識別のための特徴抽出に基づくモデル
- Authors: Salar Mohtaj, Vera Schmitt, Sebastian M\"oller
- Abstract要約: 本稿では、2021年のインド・ヨーロッパ語におけるヘイトスピーチと攻撃的コンテンツ識別に関するタスク1Aと1Bのタスク1Aとタスク1Bに関するTU Berlinチーム実験と結果について述べる。
異なる自然言語処理モデルの成功は、競技を通して各サブタスクに対して評価される。
実験に使用した実験モデルのうち、トランスファーラーニングベースモデルは両方のサブタスクで最高の結果を得た。
- 参考スコア(独自算出の注目度): 2.9005223064604078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The detection of hate speech online has become an important task, as
offensive language such as hurtful, obscene and insulting content can harm
marginalized people or groups. This paper presents TU Berlin team experiments
and results on the task 1A and 1B of the shared task on hate speech and
offensive content identification in Indo-European languages 2021. The success
of different Natural Language Processing models is evaluated for the respective
subtasks throughout the competition. We tested different models based on
recurrent neural networks in word and character levels and transfer learning
approaches based on Bert on the provided dataset by the competition. Among the
tested models that have been used for the experiments, the transfer
learning-based models achieved the best results in both subtasks.
- Abstract(参考訳): ネット上でヘイトスピーチを検出することは重要な課題となり、傷つき、わいせつ、侮辱的コンテンツといった攻撃的な言語は、疎外された人々やグループを傷つける可能性がある。
本稿では,インド・ヨーロッパ言語2021におけるヘイトスピーチと攻撃的コンテンツの識別に関する共通タスクのタスク1a,1bについて,tu berlinチームによる実験と結果について述べる。
異なる自然言語処理モデルの成功は、競争を通じて各サブタスクに対して評価される。
我々は,単語・文字レベルにおける再帰ニューラルネットワークに基づく異なるモデルと,競合によって提供されたデータセットに基づくbertに基づくトランスファー学習アプローチをテストした。
実験に使用した実験モデルのうち、転送学習に基づくモデルは両方のサブタスクで最良の結果を得た。
関連論文リスト
- M-SpeechCLIP: Leveraging Large-Scale, Pre-Trained Models for
Multilingual Speech to Image Retrieval [56.49878599920353]
本研究は,多言語画像音声検索におけるCLIPとHuBERTの大規模,英語のみの事前学習モデル(CLIPとHuBERT)の利用について検討する。
非英語画像音声検索では、各言語毎に個別のモデルを訓練する場合と、3言語すべてで音声を処理する1つのモデルの両方において、最先端のパフォーマンスを幅広いマージンで上回ります。
論文 参考訳(メタデータ) (2022-11-02T14:54:45Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z) - Offensive Language and Hate Speech Detection with Deep Learning and
Transfer Learning [1.77356577919977]
我々は、ツイートを自動的に3つのクラスに分類するアプローチを提案する。
我々は、テキスト分類、感情チェック、テキストデータ拡張を含む主要な機能を含むクラスモジュールを作成する。
論文 参考訳(メタデータ) (2021-08-06T20:59:47Z) - AngryBERT: Joint Learning Target and Emotion for Hate Speech Detection [5.649040805759824]
本論文では,感情分類によるヘイトスピーチ検出と,二次的関連タスクとしてのターゲット同定を共同学習するマルチタスク学習型モデルであるAngryBERTを提案する。
実験の結果,AngryBERTは最先端のシングルタスク学習やマルチタスク学習のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-03-14T16:17:26Z) - Transfer Learning Approach for Arabic Offensive Language Detection
System -- BERT-Based Model [0.0]
サイバーヘイト、オンラインハラスメント、その他のテクノロジーの誤用が増えている。
ナチュラル・ランゲージ・プロセッシング(NLP)分野の高度な技術を活用して、オンラインヘイトフリーコミュニティの開発を支援することは、社会正義にとって重要な課題である。
本研究は,複数のアラビア語攻撃言語データセットに対する双方向変換モデル(BERT)の微調整と訓練の効果を個別に検討することを目的とする。
論文 参考訳(メタデータ) (2021-02-09T04:58:18Z) - Exploring multi-task multi-lingual learning of transformer models for
hate speech and offensive speech identification in social media [0.0]
我々は、ヘイトスピーチの3つのサブタスクを解決するために、マルチタスクとマルチ言語アプローチを用いる。
これらのサブタスクは、インド・ヨーロッパ語におけるヘイトスピーチと攻撃的コンテンツ(HASOC)の識別に関する2019年の共有タスクの一部だった。
異なる言語やタスクで容易に一般化できるモデルを得るために、異なる組み合わせのアプローチを利用することが可能であることを示す。
論文 参考訳(メタデータ) (2021-01-27T01:25:22Z) - An Online Multilingual Hate speech Recognition System [13.87667165678441]
6つのデータセットを1つの同質なデータセットに組み合わせて分析し、3つのクラスに分類します。
ほぼリアルタイムで有効なメトリックでページを識別し、スコア付けするツールを作成し、フィードバックでモデルを再トレーニングします。
英語とヒンディー語という2つの言語モデル上での多言語モデルの競合性能を証明し、ほとんどの単言語モデルに匹敵するあるいは優れた性能をもたらす。
論文 参考訳(メタデータ) (2020-11-23T16:33:48Z) - Unsupervised Cross-lingual Representation Learning for Speech
Recognition [63.85924123692923]
XLSRは、複数の言語における音声の生波形から1つのモデルを事前学習することで、言語間音声表現を学習する。
我々は、マスク付き潜在音声表現よりも対照的なタスクを解くことで訓練されたwav2vec 2.0を構築した。
実験により、言語間事前学習はモノリンガル事前訓練よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2020-06-24T18:25:05Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。