論文の概要: Aggressive Language Detection with Joint Text Normalization via
Adversarial Multi-task Learning
- arxiv url: http://arxiv.org/abs/2009.09174v1
- Date: Sat, 19 Sep 2020 06:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 21:20:00.984405
- Title: Aggressive Language Detection with Joint Text Normalization via
Adversarial Multi-task Learning
- Title(参考訳): 対話型マルチタスク学習によるテキスト正規化による攻撃的言語検出
- Authors: Shengqiong Wu and Hao Fei and Donghong Ji
- Abstract要約: 攻撃的言語検出(ALD)はNLPコミュニティにおいて重要な応用の1つである。
本研究では,テキスト正規化(TN)を相反するマルチタスク学習フレームワークを用いて共同で行うことにより,ALDの改善を目標とする。
- 参考スコア(独自算出の注目度): 31.02484600391725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aggressive language detection (ALD), detecting the abusive and offensive
language in texts, is one of the crucial applications in NLP community. Most
existing works treat ALD as regular classification with neural models, while
ignoring the inherent conflicts of social media text that they are quite
unnormalized and irregular. In this work, we target improving the ALD by
jointly performing text normalization (TN), via an adversarial multi-task
learning framework. The private encoders for ALD and TN focus on the
task-specific features retrieving, respectively, and the shared encoder learns
the underlying common features over two tasks. During adversarial training, a
task discriminator distinguishes the separate learning of ALD or TN.
Experimental results on four ALD datasets show that our model outperforms all
baselines under differing settings by large margins, demonstrating the
necessity of joint learning the TN with ALD. Further analysis is conducted for
a better understanding of our method.
- Abstract(参考訳): テキスト中の攻撃的言語検出(ALD)は,NLPコミュニティにおいて重要な応用の1つである。
既存の作品の多くはaldを神経モデルとの規則的な分類として扱っているが、ソーシャルメディアのテキストの固有の競合は無視している。
本稿では,多タスク学習フレームワークを用いて,テキスト正規化(tn)を共同で行うことで,aldの改善を目指す。
ALDとTN用のプライベートエンコーダはそれぞれタスク固有の機能検索に重点を置いており、共有エンコーダは2つのタスクで基礎となる共通機能を学ぶ。
対人訓練中、タスク判別器はALDまたはTNの別個の学習を区別する。
4つのALDデータセットによる実験結果から,我々のモデルは異なる設定下において,大きなマージンで全てのベースラインを上回り,ALDとの共同学習の必要性が示された。
本手法をよりよく理解するためにさらなる分析を行う。
関連論文リスト
- A Unified Multi-Task Learning Architecture for Hate Detection Leveraging User-Based Information [23.017068553977982]
ヘイトスピーチ、攻撃的言語、攻撃性、人種差別、性差別、その他の虐待的言語は、ソーシャルメディアでよく見られる現象である。
ヘイトコンテンツを大規模にフィルタリングする人工知能(AI)ベースの介入が必要である。
本稿では,ユーザ内およびユーザ間情報を活用することで,英語のヘイトスピーチ識別を改善するユニークなモデルを提案する。
論文 参考訳(メタデータ) (2024-11-11T10:37:11Z) - Aligning and Prompting Everything All at Once for Universal Visual
Perception [79.96124061108728]
APEは、さまざまなタスクを実行するために、すべてのことを一度に調整し、促す、普遍的な視覚知覚モデルである。
APEは、言語誘導接地をオープン語彙検出として再構成することで、検出と接地の収束を推し進める。
160以上のデータセットの実験では、APEが最先端のモデルより優れていることが示されている。
論文 参考訳(メタデータ) (2023-12-04T18:59:50Z) - Automatic Textual Normalization for Hate Speech Detection [0.8990550886501417]
ソーシャルメディアデータには、幅広い非標準語(NSW)が含まれている。
ベトナム語に対する現在の最先端の手法は、語彙正規化の問題としてこの問題に対処している。
私たちのアプローチは単純で、Seq2Seq(Seq2Seq)モデルのみを使用します。
論文 参考訳(メタデータ) (2023-11-12T14:01:38Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - Improving Multi-task Generalization Ability for Neural Text Matching via
Prompt Learning [54.66399120084227]
最近の最先端のニューラルテキストマッチングモデル(PLM)は、様々なタスクに一般化することが難しい。
我々は、特殊化一般化訓練戦略を採用し、それをMatch-Promptと呼ぶ。
特殊化段階では、異なるマッチングタスクの記述はいくつかのプロンプトトークンにマッピングされる。
一般化段階において、テキストマッチングモデルは、多種多様なマッチングタスクを訓練することにより、本質的なマッチング信号を探索する。
論文 参考訳(メタデータ) (2022-04-06T11:01:08Z) - Simple Contrastive Representation Adversarial Learning for NLP Tasks [17.12062566060011]
教師付きコントラスト対逆学習(SCAL)と教師なしSCAL(USCAL)の2つの新しいフレームワークを提案する。
本稿では,自然言語理解,文意味的テキスト類似性,対人学習タスクのためのTransformerベースのモデルに適用する。
GLUEベンチマークタスクの実験結果から,細調整された教師付き手法はBERT$_base$1.75%以上の性能を示した。
論文 参考訳(メタデータ) (2021-11-26T03:16:09Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Learning not to Discriminate: Task Agnostic Learning for Improving
Monolingual and Code-switched Speech Recognition [12.354292498112347]
本稿では、ドメイン逆学習を用いてタスクモデルを訓練することにより、これまでの作業よりもさらに改善する。
提案手法は,単語誤り率(WER)を3つの言語対に対して単言語およびコード切替テストセットで削減する。
論文 参考訳(メタデータ) (2020-06-09T13:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。