論文の概要: Cross-Platform and Cross-Domain Abusive Language Detection with
Supervised Contrastive Learning
- arxiv url: http://arxiv.org/abs/2211.06452v1
- Date: Fri, 11 Nov 2022 19:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:08:38.435622
- Title: Cross-Platform and Cross-Domain Abusive Language Detection with
Supervised Contrastive Learning
- Title(参考訳): 教師付きコントラスト学習によるクロスプラットフォーム・クロスドメイン乱用言語検出
- Authors: Md Tawkat Islam Khondaker, Muhammad Abdul-Mageed, Laks V.S. Lakshmanan
- Abstract要約: 我々は、教師付きコントラスト学習統合メタラーニングアルゴリズムであるSCL-Fishを設計し、目に見えないプラットフォーム上で乱用言語を検出する。
実験により,SCL-FishはEMMや既存の最先端モデルよりも優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 14.93845721221461
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prevalence of abusive language on different online platforms has been a
major concern that raises the need for automated cross-platform abusive
language detection. However, prior works focus on concatenating data from
multiple platforms, inherently adopting Empirical Risk Minimization (ERM)
method. In this work, we address this challenge from the perspective of domain
generalization objective. We design SCL-Fish, a supervised contrastive learning
integrated meta-learning algorithm to detect abusive language on unseen
platforms. Our experimental analysis shows that SCL-Fish achieves better
performance over ERM and the existing state-of-the-art models. We also show
that SCL-Fish is data-efficient and achieves comparable performance with the
large-scale pre-trained models upon finetuning for the abusive language
detection task.
- Abstract(参考訳): さまざまなオンラインプラットフォームにおける乱用言語の普及は、クロスプラットフォーム乱用言語の自動検出の必要性を高める大きな懸念となっている。
しかし、先行研究は複数のプラットフォームからのデータを結合することに重点を置いており、本質的には経験的リスク最小化(ERM)方式を採用している。
本稿では,ドメイン一般化の目的の観点から,この問題に対処する。
scl-fishは教師付きコントラスト学習統合メタラーニングアルゴリズムで,未認識のプラットフォーム上で乱用言語を検出する。
実験により,SCL-FishはEMMや既存の最先端モデルよりも優れた性能を発揮することが示された。
また,scl-fishはデータ効率が高く,乱用言語検出タスクを微調整することで,大規模事前学習モデルと同等の性能が得られることを示した。
関連論文リスト
- Analyzing and Adapting Large Language Models for Few-Shot Multilingual
NLU: Are We There Yet? [82.02076369811402]
教師付きファインチューニング(SFT)、教師付きインストラクションチューニング(SIT)、インコンテキストラーニング(ICL)は、3つの代替であり、事実上の標準的アプローチである。
提案手法は,6つの高・低リソース言語,3つの異なるNLUタスク,多種多様な言語とドメインのセットアップを用いて,3つのアプローチを網羅的かつ体系的に比較する。
そこで本研究では,教師あり指導のチューニングが,性能とリソース要件の最良のトレードオフであることを示す。
論文 参考訳(メタデータ) (2024-03-04T10:48:13Z) - Machine Translation Meta Evaluation through Translation Accuracy
Challenge Sets [92.38654521870444]
ACESは146の言語ペアにまたがる対照的な課題セットです。
このデータセットは、メトリクスが68の翻訳精度の誤差を識別できるかどうかを調べることを目的としている。
我々は、WMT2022および2023のメトリクス共有タスクに提出された50のメトリクスに対して、ACESをベンチマークすることで、大規模な研究を行う。
論文 参考訳(メタデータ) (2024-01-29T17:17:42Z) - Vicinal Risk Minimization for Few-Shot Cross-lingual Transfer in Abusive
Language Detection [19.399281609371258]
高リソースから中低リソース言語への言語間変換学習は、励みのよい結果を示している。
我々は、言語間乱用言語検出を改善するために、ドメイン適応のためのデータ拡張と継続事前学習を利用する。
論文 参考訳(メタデータ) (2023-11-03T16:51:07Z) - SSLCL: An Efficient Model-Agnostic Supervised Contrastive Learning
Framework for Emotion Recognition in Conversations [20.856739541819056]
会話における感情認識(ERC)は、自然言語処理コミュニティの中で急速に進化している課題である。
We propose a efficient and model-agnostic SCL framework named Supervised Sample-Label Contrastive Learning with Soft-HGR Maximal correlation (SSLCL)。
浅い多層パーセプトロンを通して、離散ラベルを密度の高い埋め込みに投影することで、ラベル表現を活用する新しい視点を導入する。
論文 参考訳(メタデータ) (2023-10-25T14:41:14Z) - Learning Prompt-Enhanced Context Features for Weakly-Supervised Video
Anomaly Detection [37.99031842449251]
弱い監督下での映像異常検出は重大な課題を呈する。
本稿では,効率的なコンテキストモデリングとセマンティック識別性の向上に焦点をあてた,弱教師付き異常検出フレームワークを提案する。
提案手法は,特定の異常なサブクラスの検出精度を大幅に向上させ,その実用的価値と有効性を裏付けるものである。
論文 参考訳(メタデータ) (2023-06-26T06:45:16Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling [101.74165219364264]
大規模言語間事前学習言語モデル (xPLM) は、言語間シーケンスラベリングタスクにおいて有効であることを示す。
大きな成功にもかかわらず、事前学習と微調整の段階の間には訓練対象のギャップがあるという経験的観察を描いている。
本稿では,まず,言語間インフォーマティブ・スパン・マスキング(CLISM)と呼ばれるxSLのための事前学習タスクを設計し,目的のギャップを解消する。
第2に、コントラスト学習を利用して入力並列表現間の一貫性を促進するContrAstive-Consistency Regularization (CACR)を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:55:20Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z) - Cross-Lingual Adaptation for Type Inference [29.234418962960905]
弱い型付き言語間で深層学習に基づく型推論を行うための言語間適応フレームワークPLATOを提案する。
強く型付けされた言語からのデータを活用することで、PLATOは、バックボーンのクロスプログラミング言語モデルの難易度を改善する。
論文 参考訳(メタデータ) (2021-07-01T00:20:24Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。