論文の概要: Multi-Task Learning with Sentiment, Emotion, and Target Detection to
Recognize Hate Speech and Offensive Language
- arxiv url: http://arxiv.org/abs/2109.10255v1
- Date: Tue, 21 Sep 2021 15:32:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 16:55:11.763052
- Title: Multi-Task Learning with Sentiment, Emotion, and Target Detection to
Recognize Hate Speech and Offensive Language
- Title(参考訳): ヘイトスピーチと攻撃的言語認識のための感性・感情・目標検出によるマルチタスク学習
- Authors: Flor Miriam Plaza-del-Arco and Sercan Halat and Sebastian Pad\'o and
Roman Klinger
- Abstract要約: HOFと類似概念の関係を考慮し,HOF検出が利益をもたらすかどうかを検討する。
CrowdFlowerの感情コーパス、SemEval 2016 Sentiment Corpus、OffensEval 2019のターゲット検出データの組み合わせは、マルチヘッドマルチタスク学習モデルにおいてF1=.79となる。
- 参考スコア(独自算出の注目度): 9.827939106453286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recognition of hate speech and offensive language (HOF) is commonly
formulated as a classification task to decide if a text contains HOF. We
investigate whether HOF detection can profit by taking into account the
relationships between HOF and similar concepts: (a) HOF is related to sentiment
analysis because hate speech is typically a negative statement and expresses a
negative opinion; (b) it is related to emotion analysis, as expressed hate
points to the author experiencing (or pretending to experience) anger while the
addressees experience (or are intended to experience) fear. (c) Finally, one
constituting element of HOF is the mention of a targeted person or group. On
this basis, we hypothesize that HOF detection shows improvements when being
modeled jointly with these concepts, in a multi-task learning setup. We base
our experiments on existing data sets for each of these concepts (sentiment,
emotion, target of HOF) and evaluate our models as a participant (as team
IMS-SINAI) in the HASOC FIRE 2021 English Subtask 1A. Based on model-selection
experiments in which we consider multiple available resources and submissions
to the shared task, we find that the combination of the CrowdFlower emotion
corpus, the SemEval 2016 Sentiment Corpus, and the OffensEval 2019 target
detection data leads to an F1 =.79 in a multi-head multi-task learning model
based on BERT, in comparison to .7895 of plain BERT. On the HASOC 2019 test
data, this result is more substantial with an increase by 2pp in F1 and a
considerable increase in recall. Across both data sets (2019, 2021), the recall
is particularly increased for the class of HOF (6pp for the 2019 data and 3pp
for the 2021 data), showing that MTL with emotion, sentiment, and target
identification is an appropriate approach for early warning systems that might
be deployed in social media platforms.
- Abstract(参考訳): ヘイトスピーチと攻撃言語(HOF)の認識は、テキストがHOFを含むかどうかを決定するための分類タスクとして一般的に定式化される。
HOFと類似概念の関係を考慮し,HOF検出が利益をもたらすかどうかを検討する。
(a)ヘイトスピーチは一般的に否定的な発言であり、否定的な意見を表すため、感情分析と関連している。
(b)「憎しみ」は、著者が怒りを経験する(または経験するふりをする)一方で、相手が恐れを経験する(または経験する意図がある)ことを指す。
(c) 最後に、HOFを構成する1つの要素は、対象者又は団体の言及である。
そこで本研究では,HOF検出は,これらの概念と協調してモデル化された場合,マルチタスク学習環境における改善を示すと仮定する。
我々はこれらの概念(感情、感情、HOFのターゲット)のそれぞれに既存のデータセットをベースとして、HASOC FIRE 2021 English Subtask 1Aの参加者として、我々のモデルを評価した。
複数の利用可能なリソースと共有タスクへのサブミットを考慮したモデル選択実験から,CrowdFlowerの感情コーパス,SemEval 2016 Sentiment Corpus,OffensEval 2019のターゲット検出データの組み合わせは,BERTをベースとしたマルチタスク学習モデルにおいて,通常のBERTの.7895と比較してF1=.79となることがわかった。
HASOC 2019 テストデータでは、この結果は F1 の 2pp の増加とリコールの大幅な増加により、より実質的である。
両方のデータセット(2019年、2021年)全体で、HOF(2019年のデータでは6pp、2021年データでは3pp)のクラスではリコールが特に増加しており、ソーシャルメディアプラットフォームにデプロイされる可能性のある早期警告システムには、感情、感情、ターゲット識別を備えたMTLが適切なアプローチであることを示している。
関連論文リスト
- Z-AGI Labs at ClimateActivism 2024: Stance and Hate Event Detection on
Social Media [0.0]
この研究は、ケース2024における気候活動状況とヘイト事象の検出に関する共有タスクの確立につながった。
ソーシャルメディア上でヘイトスピーチと競合する気候活動家に焦点をあてて、我々の研究はツイートからのヘイトスピーチの識別に寄与する。
チームZ-AGI LabsはTLTM、Xgboost、LGBMなど様々なモデルをTf-Idfに基づいて評価した。
論文 参考訳(メタデータ) (2024-02-26T20:43:48Z) - Hate Speech and Offensive Content Detection in Indo-Aryan Languages: A
Battle of LSTM and Transformers [0.0]
我々はベンガル語、アサメセ語、ボド語、シンハラ語、グジャラート語の5つの異なる言語でヘイトスピーチの分類を比較した。
Bert Base Multilingual Casedは、ベンガル語で0.67027得点、アサメ語で0.70525得点を達成した。
シンハラではXLM-RはF1スコア0.83493で際立っているが、グジャラティではF1スコア0.76601で照らされたカスタムLSTMベースのモデルである。
論文 参考訳(メタデータ) (2023-12-09T20:24:00Z) - SOUL: Towards Sentiment and Opinion Understanding of Language [96.74878032417054]
我々は、言語感覚とオピニオン理解(SOUL)と呼ばれる新しいタスクを提案する。
SOULは2つのサブタスクを通して感情理解を評価することを目的としている:レビュー(RC)と正当化生成(JG)。
論文 参考訳(メタデータ) (2023-10-27T06:48:48Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - ABAW: Valence-Arousal Estimation, Expression Recognition, Action Unit
Detection & Emotional Reaction Intensity Estimation Challenges [62.413819189049946]
5th Affective Behavior Analysis in-the-Wild(ABAW)コンペティションは、IEEE Computer Vision and Pattern Recognition Conference(CVPR)と共同で開催される各ABAWワークショップの一部である。
今年のコンペティションでは、Aff-Wild2データベースの拡張バージョンとHume-Reactionデータセットの2つのコーパスが特徴です。
後者のデータセットは、感情的刺激に対する個人の反応が7つの感情的表現強度に対して注釈付けされている聴覚的データセットである。
論文 参考訳(メタデータ) (2023-03-02T18:58:15Z) - Improved Target-specific Stance Detection on Social Media Platforms by
Delving into Conversation Threads [12.007570049217398]
本稿では,会話姿勢検出という新しい課題を提案する。
データインスタンスとその対応する会話スレッドが与えられた場合、所定のターゲット(例えば、COVID-19ワクチン接種)に対するスタンスを推論する。
データインスタンスと会話スレッドの両方から所望のスタンスを推測するため,会話スレッドにコンテキスト情報を組み込んだBranch-BERTモデルを提案する。
論文 参考訳(メタデータ) (2022-11-06T08:40:48Z) - The MuSe 2022 Multimodal Sentiment Analysis Challenge: Humor, Emotional
Reactions, and Stress [71.06453250061489]
マルチモーダル・センチメント・アナリティクス・チャレンジ(MuSe 2022)は、マルチモーダル・センチメントと感情認識に重点を置いている。
今年の課題では、(i)ドイツサッカーコーチの音声-視覚的記録を含むPassau Spontaneous Football Coach Humorデータセット、(ii)ドイツサッカーコーチのユーモアの存在をラベル付けしたHum-Reactionデータセット、(ii)感情的表情強度に対して個人の反応が注釈付けされたHum-Reactionデータセット、(iii)ストレス的態度における人々の継続的な感情的価値観をラベル付けした音声-視覚的データからなるUlm-Trier Social Stress Testデータセットの3つのデータセットを特徴としている。
論文 参考訳(メタデータ) (2022-06-23T13:34:33Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - Team Phoenix at WASSA 2021: Emotion Analysis on News Stories with
Pre-Trained Language Models [1.6536018920603175]
WASSA 2021共有タスクのシステムエントリーについて説明します。
提案モデルは,平均ピアソンスコア0.417,マクロf1スコア0.502をトラック1とトラック2で達成した。
論文 参考訳(メタデータ) (2021-03-10T14:00:54Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。