論文の概要: Cross-Platform and Cross-Domain Abusive Language Detection with
Supervised Contrastive Learning
- arxiv url: http://arxiv.org/abs/2211.06452v1
- Date: Fri, 11 Nov 2022 19:22:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:08:38.435622
- Title: Cross-Platform and Cross-Domain Abusive Language Detection with
Supervised Contrastive Learning
- Title(参考訳): 教師付きコントラスト学習によるクロスプラットフォーム・クロスドメイン乱用言語検出
- Authors: Md Tawkat Islam Khondaker, Muhammad Abdul-Mageed, Laks V.S. Lakshmanan
- Abstract要約: 我々は、教師付きコントラスト学習統合メタラーニングアルゴリズムであるSCL-Fishを設計し、目に見えないプラットフォーム上で乱用言語を検出する。
実験により,SCL-FishはEMMや既存の最先端モデルよりも優れた性能を発揮することが示された。
- 参考スコア(独自算出の注目度): 14.93845721221461
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The prevalence of abusive language on different online platforms has been a
major concern that raises the need for automated cross-platform abusive
language detection. However, prior works focus on concatenating data from
multiple platforms, inherently adopting Empirical Risk Minimization (ERM)
method. In this work, we address this challenge from the perspective of domain
generalization objective. We design SCL-Fish, a supervised contrastive learning
integrated meta-learning algorithm to detect abusive language on unseen
platforms. Our experimental analysis shows that SCL-Fish achieves better
performance over ERM and the existing state-of-the-art models. We also show
that SCL-Fish is data-efficient and achieves comparable performance with the
large-scale pre-trained models upon finetuning for the abusive language
detection task.
- Abstract(参考訳): さまざまなオンラインプラットフォームにおける乱用言語の普及は、クロスプラットフォーム乱用言語の自動検出の必要性を高める大きな懸念となっている。
しかし、先行研究は複数のプラットフォームからのデータを結合することに重点を置いており、本質的には経験的リスク最小化(ERM)方式を採用している。
本稿では,ドメイン一般化の目的の観点から,この問題に対処する。
scl-fishは教師付きコントラスト学習統合メタラーニングアルゴリズムで,未認識のプラットフォーム上で乱用言語を検出する。
実験により,SCL-FishはEMMや既存の最先端モデルよりも優れた性能を発揮することが示された。
また,scl-fishはデータ効率が高く,乱用言語検出タスクを微調整することで,大規模事前学習モデルと同等の性能が得られることを示した。
関連論文リスト
- Bridging the Language Gaps in Large Language Models with Inference-Time Cross-Lingual Intervention [71.12193680015622]
大規模言語モデル(LLM)は自然言語処理において顕著な能力を示している。
LLMは異なる言語間で大きな性能差を示す。
Inference-Time Cross-Lingual Intervention (INCLINE) を提案する。
論文 参考訳(メタデータ) (2024-10-16T11:23:03Z) - Multimodal Contrastive In-Context Learning [0.9120312014267044]
本稿では,Large Language Models (LLMs) における勾配なしインコンテキスト学習 (ICL) の理解を高めるために,新しいマルチモーダルコントラスト型インコンテキスト学習フレームワークを提案する。
まず、実世界におけるICLの対照的な解釈を示し、ICLの差別化要因としてキー値表現の距離を示す。
第2に、実世界のデータセットに対するマルチモーダル入力フォーマットにおけるバイアスに対処する分析フレームワークを開発する。
第3に、ヘイトフルミームの検出の有効性を示すICLのオンザフライアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-23T10:10:01Z) - Improving the Consistency in Cross-Lingual Cross-Modal Retrieval with 1-to-K Contrastive Learning [23.54908503106691]
CCR(Cross-lingual Cross-modal Retrieval)は,Web検索において重要なタスクである。
本稿では,各言語を等しく扱う1対Kのコントラスト学習手法を提案する。
提案手法は,より小規模な事前学習データを用いて,リコール率と平均ランク変動(MRV)の両方を改善する。
論文 参考訳(メタデータ) (2024-06-26T11:04:25Z) - Self-training Large Language Models through Knowledge Detection [26.831873737733737]
大規模な言語モデル(LLM)は、ダウンストリームタスク間で印象的なパフォーマンスを達成するために、広範囲のラベル付きデータセットとトレーニング計算を必要とすることが多い。
本稿では,LLMが独自ラベルを自動でキュレートし,未知のデータサンプルを選択的に学習する自己学習パラダイムについて検討する。
経験的評価は、複数の被験者にまたがる世代における幻覚の減少に有意な改善を示した。
論文 参考訳(メタデータ) (2024-06-17T07:25:09Z) - ALMol: Aligned Language-Molecule Translation LLMs through Offline Preference Contrastive Optimisation [2.296475290901356]
機械語-分子翻訳に焦点をあて、コントラスト優先最適化と呼ばれる新しい訓練手法を展開する。
その結果,我々のモデルでは,他のモデルと比較して最大32%の改善が達成された。
論文 参考訳(メタデータ) (2024-05-14T13:59:24Z) - Analyzing and Adapting Large Language Models for Few-Shot Multilingual
NLU: Are We There Yet? [82.02076369811402]
教師付きファインチューニング(SFT)、教師付きインストラクションチューニング(SIT)、インコンテキストラーニング(ICL)は、3つの代替であり、事実上の標準的アプローチである。
提案手法は,6つの高・低リソース言語,3つの異なるNLUタスク,多種多様な言語とドメインのセットアップを用いて,3つのアプローチを網羅的かつ体系的に比較する。
そこで本研究では,教師あり指導のチューニングが,性能とリソース要件の最良のトレードオフであることを示す。
論文 参考訳(メタデータ) (2024-03-04T10:48:13Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Vicinal Risk Minimization for Few-Shot Cross-lingual Transfer in Abusive
Language Detection [19.399281609371258]
高リソースから中低リソース言語への言語間変換学習は、励みのよい結果を示している。
我々は、言語間乱用言語検出を改善するために、ドメイン適応のためのデータ拡張と継続事前学習を利用する。
論文 参考訳(メタデータ) (2023-11-03T16:51:07Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling [101.74165219364264]
大規模言語間事前学習言語モデル (xPLM) は、言語間シーケンスラベリングタスクにおいて有効であることを示す。
大きな成功にもかかわらず、事前学習と微調整の段階の間には訓練対象のギャップがあるという経験的観察を描いている。
本稿では,まず,言語間インフォーマティブ・スパン・マスキング(CLISM)と呼ばれるxSLのための事前学習タスクを設計し,目的のギャップを解消する。
第2に、コントラスト学習を利用して入力並列表現間の一貫性を促進するContrAstive-Consistency Regularization (CACR)を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:55:20Z) - Improving Classifier Training Efficiency for Automatic Cyberbullying
Detection with Feature Density [58.64907136562178]
言語支援の異なる特徴前処理手法を用いて特徴密度(FD)の有効性を検討した。
データセットの複雑さを推定することで、必要な実験の数を削減できると仮定する。
データセットの言語的複雑さの違いにより、言語的に支援された単語前処理の有効性を議論することが可能になる。
論文 参考訳(メタデータ) (2021-11-02T15:48:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。